力触覚通信を35mm角のボードで実現:次世代のロボットアームを目指す(1/2 ページ)
慶応義塾大学ハプティクス研究センターは「CEATEC JAPAN 2016」(2016年10月4〜7日/幕張メッセ)で、ロボットアームの位置情報・力情報を遠隔に伝える「力触覚通信」技術のデモを行った。同研究センターは、この力触覚通信技術を試作品などに手軽に実装できるよう、35mm角の小型ボードを開発、それもCEATECで披露した。
力触覚を伝える
慶応義塾大学ハプティクス研究センターは「CEATEC JAPAN 2016」(2016年10月4〜7日/幕張メッセ)で、「力触覚(りきしょっかく)通信」を利用してロボットアームなどを動かすデモを展示した。
力触覚とは、人間が物体に触った時に得られる、「硬い」「軟らかい」といった感覚である。同研究センターは、この力触覚に関わる情報(力触覚情報)をネットワークなどを経由して遠隔に伝える技術を「力触覚通信」として、実用化を目指し開発を進めている。力触覚通信を利用すると、例えばロボットアームで物体をつかんだ時に、その物体の硬さや軟らかさ、弾力性なども感じ取れるようになる。つまり、「遠くの物をつかんだ時の感触を、手元で感じられる」(同研究センター)のだ。
同研究センターは2015年のCEATECでも、ポテトチップスをロボットアームでつかむというデモを披露した(関連記事:ポテチを微妙な力加減で挟める力触覚通信)。力触覚通信を有効にすると、「非常に薄いものをつかんでいる」という感覚がロボットアームに伝わるので、力を入れ過ぎることがなく、ポテトチップスを割らずにつかめる。一方で、力触覚通信をオフにすると、力の加減が分からずポテトチップスを割ってしまう。
今回のCEATECでは、タイヤを砂利の上で走らせるとその振動が手元のハンドルに伝わるデモや、同研究センターが2016年9月29日に発表したばかりの汎用ロボットアームのデモなどが披露された。この汎用ロボットアームは人工上肢で、同研究センターは「GP-Arm(General Purpose Arm)」と呼んでいる。
デモでは、ロボットアームが「果物を持ち上げて隣の皿に置く」という動作を繰り返していた。
このデモでは、ロボットアームとコントローラーの間で、ロボットアームの位置情報と力情報を高速でフィードバックし、制御している。ここでは、あらかじめ、対象物(例えばリンゴ)を持った時の力触覚情報(=位置情報・力情報)を保存しておく。その力触覚情報通りの力加減で握れるように、ロボットアームの位置情報と力情報をフィードバックし制御する。「リンゴを持った時」の動作情報を用いることで、トマトなど大きさや形状が異なる他の物体もつかむことが可能になる。この際、「トマトを持った時の動作情報」は不要だ。慶応義塾大学理工学部システムデザイン工学科で助教を務める野崎貴裕氏は、「今回の装置は、対象物体への高い適応性を持っている。人間が目を閉じていてもリンゴやトマトをつかめるのと同じで、大きさや形状、硬さに多少の違いがあっても瞬時に対応できる。“つかむという動作の本質”を再現しているからだ」と説明した。
Copyright © ITmedia, Inc. All Rights Reserved.