リアルハプティクスを導入する場合、モーションリブでの受託開発あるいは、同社との共同開発が可能だ。また、同社は市販ロボットをリアルハプティクスで動かすための、協働ロボット用感触伝送遠隔操作ユニット「URH」を2022年から提供している。
共同研究/開発の事例としては、日鉄エンジニアリングと共同で取り組んだ、ごみ溶融処理施設における酸素洗浄作業の作業効率向上や、大林組と共同で行った、力触覚フィードバックを有する建設重機のシステム開発などがある。その他、約80社と共同研究を行っているという。
リアルハプティクスおよびAbcCoreの開発背景について、福田氏は「製造業では、“職人の感覚を頼りにしている”など、属人的な理由から、工程の自動化が難しくなっていることが多い。リアルハプティクスによって、そのような“職人の技”をデータ化し、可視化することで、自動化だけでなく、次世代への技術継承にも貢献する」と語った。
今後の目標について、モーションリブ COO(最高経営責任者)の緒方仁是氏は「ヒトの動作情報を作って公開したり、(その情報を)検索したりできる動作プラットフォームの確立と普及を目指す。さまざまな動作情報に簡単にアクセスできるようになることで、ロボットがヒトのように動き、人手不足が解消された世界を実現する」と語った。同社は、2026年までにプラットフォームを確立し、2030年までに世界的な普及を目指している。
【訂正:2024年3月6日20時09分 当初の記事では「また、同社はAbcCoreを市販ロボットに搭載した、協働ロボット用感触伝送遠隔操作ユニット「URH」を2022年から提供している」と記載しておりましたが、正しくは、AbcCoreを搭載しているのは制御コントローラーシステムです。お詫びして修正致します。】
硬い/柔らかいをロボットに伝える、力触覚のデモを披露
脳の錯覚でゲーム機に革新、重さまで伝わるハプティクス技術
目の動きから心の動きを読み取る、NTTの研究
愛に飢える筆者が、自分で自分を抱きしめてきた
“肌触り”を計測し、美容ケアの効果を可視化
触覚とそのセンシング(前編)
デジタル世界でもう一度、ALS患者の体を動かせる仕組みを開発Copyright © ITmedia, Inc. All Rights Reserved.
記事ランキング