最近のロボット関連の技術といえば、AI(人工知能)ばかりが注目されているが、ロボットの進化に大いに寄与する技術が70年越しでようやく実用化されたのをご存じだろうか? それが慶應義塾大学の野崎貴裕 助教らが研究を続ける、人間の手の触覚を伝送/再現、拡張/縮小、保存する技術「リアルハプティクス」だ。

慶應義塾大学 理工学部 システムデザイン工学科 助教 博士(工学) 野崎 貴裕氏。2006年、慶應義塾大学理工学部システムデザイン工学科に入学。その後、同大学院に進学し、博士の学位を取得。横浜国立大学大学院工学研究院研究教員を経て、2015年、慶應義塾大学理工学部システムデザイン工学科の助教に就任。2016年には高性能ハプティクス義手の開発で「CEATEC 2016」審査委員特別賞を受賞した。
[画像のクリックで拡大表示]

 リアルハプティクスと聞いてもイメージが湧かない人も多いはず。簡単に言うなら「ロボットの手」で触った物体の感覚(触覚)を「人間の手」に伝えることができる技術だ。人間は操作用のグローブを装着し、手を動かすと、ロボットアームも連動して動く。ここまでなら従来の技術だ。

 リアルハプティクスでは、ロボットアームで触った物体の硬さをグローブにフィードバックできる。フィードバックされた硬さに応じて、人間が握力を調整すれば、今度はそれがロボットアームに伝わる。つまり、ロボットアームでも人間ならではの指先で感じた“硬さ”から握る力を調整したり、物をつかむとき指の位置がズレても、その感触で握る位置を調整できる。

 例えばケチャップなどの軟らかいボトルをつかむシーンを想像してほしい。従来のロボットアームではケチャップのボトルの位置を正確に把握してロボットアームでつかみ、どれだけ握れば出したい量のケチャップが出るかという情報をあらかじめ設定するか、ボトルの様子を見ながら慎重に徐々に力を加えていくという操作が必要だった。

 この場合、少しでも力を入れすぎるとボトルがつぶれてケチャップが噴き出すという惨事が起こる。しかし、リアルハプティクスを使えば、人間が物を取るのと同じように大まかな場所に腕を伸ばして手探りでボトルをつかみ、ケチャップが出る量はボトルを触っている感覚を頼りに調整できるようになる。

 9月28日に慶應義塾大学で行われた発表会では、リアルハプティクスを利用した双腕ロボット「General Purpose Arm」が披露された。ヘッドマウントディスプレイとグローブ、足の筋肉の動きを感知する装置により、視覚、聴覚、触覚が遠隔操作で得られる。さらにグローブは手首や肘の動きも感知するため、人間の腕や手の動きをほぼ再現できる。また足の筋肉を動かすことでロボットの車輪が動くため、場所の移動も可能だ。これを活用し、遠隔操作でロボットが柔らかいペットボトルをつかんでコップに水を入れたり、風船をつかんだりといったデモが行われた。

 今回実用化されたリアルハプティクスではネットワークの状態や距離にもよるが情報量が非常にコンパクトなため、操作のタイムラグは1万分の1秒と、ほぼリアルタイムの伝送が可能となっているのも注目するべき点といえる。

リアルハプティクスを利用した双腕ロボット「General Purpose Arm」
[画像のクリックで拡大表示]
人間はグローブを装着して操作を行う
[画像のクリックで拡大表示]
人間が操作した動きをロボットがほぼリアルタイムで再現する
[画像のクリックで拡大表示]
「General Purpose Arm」が風船をつかみ、ペットボトルで水を入れる様子

 リアルハプティクスでは、人間の触覚を伝送・再現するだけではなく、それを拡張/縮小、保存することができる。ロボットアームの大きさや力の強さを変えることで、人間の手の動きや力を何百倍にも拡張できるのだ。逆に縮小すれば、顕微鏡で行うような微細な作業を、楽な力加減と大ざっぱな動きで行える。猫を持ち上げるような力加減で、ミジンコを捕まえることが可能になる。

 人間の手の動きを保存してロボットアームに再現させることも可能だ。製品の組み立てなど人間が手作業で行っていたものを自動化するのに役立つうえに、人間よりも正確に休み無く動き続けられるので、製品の生産性は向上し、歩留まりは上がる。仮に品質不適合となる製品を組み立てた場合もその動作を記録しているので、生産ラインの品質の改良や不良品の発見にも貢献できる。達人の技術を覚えさせれば、精巧な製品を量産することにも応用できる。

リアルハプティクスでは、人間の触覚を再現するだけではなく、伝送・拡張/縮小・保存することができる
[画像のクリックで拡大表示]
TREND EXPOの 野崎貴裕氏の講演に申し込む