最近のロボット関連の技術といえば、AI(人工知能)ばかりが注目されているが、ロボットの進化に大いに寄与する技術が70年越しでようやく実用化されたのをご存じだろうか? それが慶應義塾大学の野崎貴裕 助教らが研究を続ける、人間の手の触覚を伝送/再現、拡張/縮小、保存する技術「リアルハプティクス」だ。

慶應義塾大学 理工学部 システムデザイン工学科 助教 博士(工学) 野崎 貴裕氏。2006年、慶應義塾大学理工学部システムデザイン工学科に入学。その後、同大学院に進学し、博士の学位を取得。横浜国立大学大学院工学研究院研究教員を経て、2015年、慶應義塾大学理工学部システムデザイン工学科の助教に就任。2016年には高性能ハプティクス義手の開発で「CEATEC 2016」審査委員特別賞を受賞した。
慶應義塾大学 理工学部 システムデザイン工学科 助教 博士(工学) 野崎 貴裕氏。2006年、慶應義塾大学理工学部システムデザイン工学科に入学。その後、同大学院に進学し、博士の学位を取得。横浜国立大学大学院工学研究院研究教員を経て、2015年、慶應義塾大学理工学部システムデザイン工学科の助教に就任。2016年には高性能ハプティクス義手の開発で「CEATEC 2016」審査委員特別賞を受賞した。

 リアルハプティクスと聞いてもイメージが湧かない人も多いはず。簡単に言うなら「ロボットの手」で触った物体の感覚(触覚)を「人間の手」に伝えることができる技術だ。人間は操作用のグローブを装着し、手を動かすと、ロボットアームも連動して動く。ここまでなら従来の技術だ。

 リアルハプティクスでは、ロボットアームで触った物体の硬さをグローブにフィードバックできる。フィードバックされた硬さに応じて、人間が握力を調整すれば、今度はそれがロボットアームに伝わる。つまり、ロボットアームでも人間ならではの指先で感じた“硬さ”から握る力を調整したり、物をつかむとき指の位置がズレても、その感触で握る位置を調整できる。

 例えばケチャップなどの軟らかいボトルをつかむシーンを想像してほしい。従来のロボットアームではケチャップのボトルの位置を正確に把握してロボットアームでつかみ、どれだけ握れば出したい量のケチャップが出るかという情報をあらかじめ設定するか、ボトルの様子を見ながら慎重に徐々に力を加えていくという操作が必要だった。

 この場合、少しでも力を入れすぎるとボトルがつぶれてケチャップが噴き出すという惨事が起こる。しかし、リアルハプティクスを使えば、人間が物を取るのと同じように大まかな場所に腕を伸ばして手探りでボトルをつかみ、ケチャップが出る量はボトルを触っている感覚を頼りに調整できるようになる。

 9月28日に慶應義塾大学で行われた発表会では、リアルハプティクスを利用した双腕ロボット「General Purpose Arm」が披露された。ヘッドマウントディスプレイとグローブ、足の筋肉の動きを感知する装置により、視覚、聴覚、触覚が遠隔操作で得られる。さらにグローブは手首や肘の動きも感知するため、人間の腕や手の動きをほぼ再現できる。また足の筋肉を動かすことでロボットの車輪が動くため、場所の移動も可能だ。これを活用し、遠隔操作でロボットが柔らかいペットボトルをつかんでコップに水を入れたり、風船をつかんだりといったデモが行われた。

 今回実用化されたリアルハプティクスではネットワークの状態や距離にもよるが情報量が非常にコンパクトなため、操作のタイムラグは1万分の1秒と、ほぼリアルタイムの伝送が可能となっているのも注目するべき点といえる。

リアルハプティクスを利用した双腕ロボット「General Purpose Arm」
リアルハプティクスを利用した双腕ロボット「General Purpose Arm」
人間はグローブを装着して操作を行う
人間はグローブを装着して操作を行う
人間が操作した動きをロボットがほぼリアルタイムで再現する
人間が操作した動きをロボットがほぼリアルタイムで再現する
「General Purpose Arm」が風船をつかみ、ペットボトルで水を入れる様子

 リアルハプティクスでは、人間の触覚を伝送・再現するだけではなく、それを拡張/縮小、保存することができる。ロボットアームの大きさや力の強さを変えることで、人間の手の動きや力を何百倍にも拡張できるのだ。逆に縮小すれば、顕微鏡で行うような微細な作業を、楽な力加減と大ざっぱな動きで行える。猫を持ち上げるような力加減で、ミジンコを捕まえることが可能になる。

 人間の手の動きを保存してロボットアームに再現させることも可能だ。製品の組み立てなど人間が手作業で行っていたものを自動化するのに役立つうえに、人間よりも正確に休み無く動き続けられるので、製品の生産性は向上し、歩留まりは上がる。仮に品質不適合となる製品を組み立てた場合もその動作を記録しているので、生産ラインの品質の改良や不良品の発見にも貢献できる。達人の技術を覚えさせれば、精巧な製品を量産することにも応用できる。

リアルハプティクスでは、人間の触覚を再現するだけではなく、伝送・拡張/縮小・保存することができる
リアルハプティクスでは、人間の触覚を再現するだけではなく、伝送・拡張/縮小・保存することができる
TREND EXPOの 野崎貴裕氏の講演に申し込む

生きる喜びがある社会の実現が目標

 さまざまな分野での応用が期待できる「リアルハプティクス」。その第一人者である野崎 助教に、「リアルハプティクス」の現状と可能性などをうかがった。

――改めて「リアルハプティクス」とはどのようなものでしょうか?

野崎 助教(以下、野崎): 従来「ハプティクス」、触覚学という学問がありました。今までのハプティクスはグローブの指先にバイブレータを搭載し、ロボットアームが物に触れたことを“通知”するものでした。

 しかしリアルハプティクスは物に触れた感触をリアルに伝える、もしくは装置に何か力を加えれば、それを数値として取り出すという技術です。今までのハプティクスとの差を明確にするために「リアルハプティクス」という名称を付けました。

 リアルハプティクスでは、機械を駆動させるのに使用するモーターから“硬さ”を検知しています。モーターの動いた量と何かに接触したときのモーターの回りにくさという情報をデータ化し、それを転送することで硬さを伝えます。

――「リアルハプティクス」はどのように実用化されていくのでしょうか?

野崎: 実用化した例としてシブヤ精機のミカンの選果器があります。ミカンは出荷する際に腐ったものを排除する必要があるのですが、これは非常に人手がかかる作業でした。そこでシブヤ精機は自動で選別する機械を作りました。このミカン選果器は、腐ったミカンを排出する際に掃除機のように空気を使ってミカンを吸引して持ち上げる方式を使っていました。

 ところが、これでは吸い上げた際にミカンが崩れて腐った果汁をまき散らすという問題を抱えていました。そこでハプティクス義手の技術を応用したロボットハンドを作り、人間のように力を加減して持ち上げ、腐っていても崩れないようにしました。こうしてミカンの選別が完全に自動化でき、しかも人間が選別するよりも速く正確に腐ったミカンを排出することができるようになりました。

 他にも自動車や建設機器、産業機械、医療機器など30社ほどがパートナーとしてリアルハプティクスを研究しているので、さまざまな分野で実用化する可能性があります。

シブヤ精機が実用化したリアルハプティクスでミカンを選別する機械

――「リアルハプティクス」によって何を目指しておられますか?

野崎: 生きる喜びを感じられる社会ですね。少子高齢化によって若年労働力が減り、さらに介護に割かなければいけない人手が増えるという状況では社会が崩壊します。したがって、必ず労働力を人工的に作る必要が出てきます。人工的に作るといっても、頭(人工知能)だけではどうにもなりません。何かを物理的に動かすということが必要です。

 人間の五感のうち、視覚や聴覚だけでは目の前の状況を変えることはできません。触る・動かすという行為があって初めて目の前の状況が変化します。人類は視覚や聴覚を遠隔で得る技術を獲得しました。そして触るということを遠隔で得られることで、人類はさらに状況を変えることができるようになります。

 人は自分の力で生きることで喜びや生きがいを感じます。例えば、お年寄りになって体が弱っても、何不自由なく動かせる部分は必ずあり、その部分を動かすことで可能性はいくらでも広がります。誰かの手を借りなくても自分で生活することができるかもしれません。他にも最近ではコールセンターを地方に移転する企業が増えてきていますが、この技術を使うことで操作という仕事自体も地方で行えるため、地方分権にも貢献できると思っています。

◇       ◇       ◇

 最近では“ロボットが人間の仕事を奪う”と頻繁に聞くようになったが、リアルハプティクスはむしろロボットが人間に寄り添い、人間の可能性を拡張してくれる技術だ。既にリアルハプティクスを活用してロボットを制御できる制御用のチップも一部の企業には供給が開始されており、この技術を活用したロボットがわれわれの身近で見られる日も近いだろう。

テスト用の制御ボード。このボードで4基のモーターをリアルハプティクス制御できる
テスト用の制御ボード。このボードで4基のモーターをリアルハプティクス制御できる

(写真・構成/シバタススム)

TREND EXPOの 野崎貴裕氏の講演に申し込む
この記事をいいね!する