メディア
特集
» 2016年02月18日 09時30分 公開

人の“模倣”ではないAIで、未来を作るNTT R&Dフォーラム 2016(3/3 ページ)

[村尾麻悠子,EE Times Japan]
前のページへ 1|2|3       

ロボットとデバイスをクラウド上で連携

 IoT向けには、対話型ロボットとタブレット端末、ヘルスケア機器など、さまざまなデバイスをクラウド上で連携させてアプリケーションを開発できる統合開発環境/実行環境として「R-env:連舞(れんぶ)」を紹介した。

 R-env:連舞の使い方はとてもシンプルで、「スイッチを押したらロボットがあいさつする。ロボットがあいさつしたら、ロボット掃除機が動く」といった具合に、簡単な状態遷移表を作成していけばよい。動作の項目も「スイッチを押す」「ロボットが話す」といったようにあらかじめ用意されているので、ユーザーは、実現したい動作をプルダウンで選択するだけでよい。

R-env:連舞アプリの開発アプリの開発 左=「R-env:連舞」の画面。このように状態遷移表を作成していく。吹き出しは、説明用であって、実際の画面にはない/中央=対話型ロボットやスイッチ、ロボット掃除機など、さまざまなデバイスを連携させるアプリを開発しやすくなる/右=ロボットとタブレット端末、血圧計などを連携させ、「血圧を計測する→結果がタブレット端末に表示される→ロボットが“次の測定にどうぞ”などとしゃべる」といった健康診断のシステムも、開発できる(クリックで拡大)

眼球の動きでマインドリーディング

 眼球の動きから心理を読み取る技術として、“好みのタイプ”を判別するデモが行われた。CG(コンピュータグラフィックス)で作成した人の顔の画像を2枚並べ、どちらをより好んでいるかを、眼球の動きや瞳孔の収縮で判断するというもの。カメラで眼球を撮影し、眼球の動きと瞳孔の収縮を見ながら、アルゴリズムを使って、どちらの画像が好みなのかを判別している。NTTによると、判別の精度は約90%だという。

 NTTは、同技術の用途として、運転中に眠気をリアルタイムに推定してドライバーに注意喚起したり、スポーツで、プレー中の眼球データを取得し、選手にフィードバックしてマインドコントロールに役立てたりといったことを挙げた。NTTは、「目の動きと自律神経系は深く関与しているといわれている」と述べ、自律神経系の疾患を見つけるといったことにも使える可能性を示した。

デモデモ 左=デモの様子。目の前にあるカメラで、眼の動きなどを捉える/右=デモの体験者によると、この顔が好みだということで「正解」だそう。それにしても、CGで作成した顔は本当に怖かった。「せめてきれいなモデルさんの写真を用意してほしかった」(体験者) (クリックで拡大)

VRを利用してバッティングの練習を

 高い臨場感や没入感を実現する技術として、VR(Virtual Reality:仮想現実)を用いた野球のトレーニングのデモを紹介した。複数台のカメラを使って異なる角度から撮影した野球場やピッチャーの映像と、ボールなどのCG映像と合成し、ヘッドマウントディスプレイ(HMD)で再現するもの。あたかも、バッターボックスに立ち、実際にピッチャーと勝負しているような感覚を得られる。カメラの映像だけでなく、モーションセンサーなど各種センサーから取得した情報も追加することができる。実際の試合のような状況を作り出せる同技術は、練習だけでなくゲームなどエンターテインメントの分野でも使えるとしている。

デモの様子デモの様子 デモの様子。HMDを身に着けると、本当に野球場でバッターボックスに立っているような感覚を味わえる。ボールが飛んでくる様子もリアルで、「自分の方に飛んできたので思わずよけちゃった」体験者(右)が続出(クリックで拡大)
前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.