2つ目のプロトタイプは、エモーションカメラを利用し、人の表情(画像)から感情を識別する検証を行った。
ET展でのデモの内容は、エモーションを検知できるカメラを使用し、表情、年齢、ネガティブ/ポジティブ指数をセンシングし、センシングしたデータにより、60パターン以上の音声出力とアクションをRAPIROが実行するというものである。下記に構成図と、実際のプロトタイプの画像を示す。
ET 2017のデモにて、来場者の表情を撮影し認識結果を確認したところ、定性的な評価ではあるが、笑った顔、悲しい顔などの表情による感情の識別精度は高いように思われた。しかしながら、わざと表情を変えて撮影することにより、認識結果を意図的に変えることができたため、人の表情(画像)のみでの感情識別は表面的なものとなる。また、認識した結果により、RAPIROが話し掛けることは、来場者の反応がよかったため、コミュニケーションロボットとの相性がよいことが分かった。
感情とIoTを融合させた新しいサービスモデルとしてエモーションドリブンサービスモデルの提案を行った。エモーションドリブンサービスモデルの具体例を考えると、さまざまなサービスモデルが考えられる。エモーションのみをトリガーとしたサービスは、エモーションセンシングが発展途上の技術であるため難しいと考える。しかしながら、エンターテイメント分野などで特定のユースケースに絞り、コンテンツ(サービス)の内容次第では、エモーションドリブンの面白いサービスが生まれる可能性がある。また、既存のサービスにエモーションセンシングの要素を組み合わせることによって、価値の向上が図れる可能性も期待される。
エモーションWGでは、エモーションドリブンサービスユースケースを検討すると共に、多様なエモーションドリブンサービスユースケースに対応できるように、組込み視点でさまざまなエモーションキャッチセンサーの特性を調査し、エモーションドリブンサービスユースケースの可能性の幅を広げていく。そして、エモーションセンサーフュージョンシステムついてさまざまなエモーションキャッチセンサーの組み合わせを検討していく。
Copyright © ITmedia, Inc. All Rights Reserved.