IoT向けには、対話型ロボットとタブレット端末、ヘルスケア機器など、さまざまなデバイスをクラウド上で連携させてアプリケーションを開発できる統合開発環境/実行環境として「R-env:連舞(れんぶ)」を紹介した。
R-env:連舞の使い方はとてもシンプルで、「スイッチを押したらロボットがあいさつする。ロボットがあいさつしたら、ロボット掃除機が動く」といった具合に、簡単な状態遷移表を作成していけばよい。動作の項目も「スイッチを押す」「ロボットが話す」といったようにあらかじめ用意されているので、ユーザーは、実現したい動作をプルダウンで選択するだけでよい。
眼球の動きから心理を読み取る技術として、“好みのタイプ”を判別するデモが行われた。CG(コンピュータグラフィックス)で作成した人の顔の画像を2枚並べ、どちらをより好んでいるかを、眼球の動きや瞳孔の収縮で判断するというもの。カメラで眼球を撮影し、眼球の動きと瞳孔の収縮を見ながら、アルゴリズムを使って、どちらの画像が好みなのかを判別している。NTTによると、判別の精度は約90%だという。
NTTは、同技術の用途として、運転中に眠気をリアルタイムに推定してドライバーに注意喚起したり、スポーツで、プレー中の眼球データを取得し、選手にフィードバックしてマインドコントロールに役立てたりといったことを挙げた。NTTは、「目の動きと自律神経系は深く関与しているといわれている」と述べ、自律神経系の疾患を見つけるといったことにも使える可能性を示した。
高い臨場感や没入感を実現する技術として、VR(Virtual Reality:仮想現実)を用いた野球のトレーニングのデモを紹介した。複数台のカメラを使って異なる角度から撮影した野球場やピッチャーの映像と、ボールなどのCG映像と合成し、ヘッドマウントディスプレイ(HMD)で再現するもの。あたかも、バッターボックスに立ち、実際にピッチャーと勝負しているような感覚を得られる。カメラの映像だけでなく、モーションセンサーなど各種センサーから取得した情報も追加することができる。実際の試合のような状況を作り出せる同技術は、練習だけでなくゲームなどエンターテインメントの分野でも使えるとしている。
Copyright © ITmedia, Inc. All Rights Reserved.