産業技術総合研究所(産総研)やNextremerは、「CEATEC JAPAN 2017」の「AI-人工知能パビリオン」で、人工知能(AI)技術を用いたロボット制御システムや対話システムなどを紹介した。
「CEATEC JAPAN 2017」(2017年10月3〜6日)の「AI-人工知能パビリオン」では、産業技術総合研究所(産総研)やNextremer(ネクストリーマー)が、人工知能(AI)技術を用いたロボット制御システムや対話システムなどを紹介した。
産総研は、人間との共存や生活支援を行うロボットの実現に向けたAI技術を幾つか紹介した。その1つは深層学習(ディープラーニング)技術を応用したロボットで、これまで扱うことが困難といわれてきたタオルやシャツのような柔らかいものをリアルタイムにつかみ、折りたたむことができる。
このシステムでは、人間がロボットを操作してタオルなどの柔軟な物を折りたたむ動作を教え込み、ロボットに成功体験を積み重ねさせた。実際にロボットが折りたたみ作業を行う時には、入力されたカメラの画像から、これまで蓄積してきたデータを参照しながら、タオルをつかむ場所やそのためのアーム動作をロボット自身が連想し、リアルタイムに行動するという。
「ロボットの学習は人手で行うため負担は大きいが、折りたたみ動作はリアルタイムに行うことができる。3Dモデリングによる学習だと、柔軟物を判別しアームが動き出すまで30秒程度要することもある」(説明員)と話す。ブースに設置したロボットは折りたたみ作業を30回学習させたという。完全ではないが、かなり高い確率でタオルの折りたたみに成功した。
もう1つは、VR(仮想現実)によるロボットと人間の対話実験に向けたシミュレーター技術である。社会生活を行う上で人間とロボットが共存するためのデータベースを蓄積するという。具体的には、VR上でロボットによる指示を人間がどれだけ正しく理解し、迅速に行動できるかを確認する。
ブースでは、HMD(ヘッドマウントディスプレイ)を装着し、両手に持ったスティックを使ってデモを行った。ロボットからの指示を人間が理解し、作業を完了するまでのレスポンス時間を計測する。このデータをクラウドに蓄積し、クラウド側で分析することにより、日常生活に支障がない会話を行える知能ロボットの開発に活用していく。
Nextremerは、AI技術を用いた移動マニピュレーターのデモを行った。シミュレーションで学習した結果に基づき、カメラが捉えた映像から円筒形や直方体、立方体といった形状や色を見極め、形状ごとに異なるつかみ方などの動作方法を判断し、マニピュレーターを適切に制御するという。
Nextremerはこの他、パートナー企業と連携し、自然言語処理機能を有するマルチモーダル対話システム「minarai」を活用した具体的な事例を紹介した。例えば、本田技研工業(ホンダ)と共同研究を進めている車載システムへの応用、凸版印刷が取り組む浅草観光案内、TBSテレビの世界陸上ロンドン公式バーチャルアシスタントなど多数のデモ展示を行った。
Copyright © ITmedia, Inc. All Rights Reserved.