Googleは、開発者向けイベント「Google I/O 2016」の基調講演で、VR(Virtual Reality)プラットフォーム「Daydream」を発表した。この実現に協力した半導体メーカーは、なかなかに苦労を強いられたようだ。
Samsung ElectronicsのVR(Virtual Reality)「Gear VR」の登場以来、モバイルVRは進化を続けてきた。そして、GoogleのAndroidスマートフォン向けVRプラットフォーム「Daydream」の発表によって、半導体業界の関係者たちは新たな課題に直面している。
Qualcommでビジュアルプロセッシング部門を率いるTim Leland氏も、その1人だ。同氏は今後しばらくの間、次世代AndroidスマートフォンをDaydreamに対応させるための“課題”にGoogleと協力して取り組むことになる。
Leland氏のチームは、シングルバッファレンダリングを最適化するためのAndroidフレームワークの開発に協力している。Qualcommの最新SoC「Snapdragon 820」のグラフィックスコアは、精度の高いプリエンプション(優先度の高いタスクが発生すると、実行中のタスクを中断して高優先度のタスクを実行する)を実行して、「motion-to-photon latency(動作から表示までにかかる時間)」を削減している。この技術は、ユーザーの頭の動きに合わせて迅速に映像を変化させるための鍵となる。
Leland氏は、「遅延時間を20ミリ秒に抑えるには大変な労力が必要だった」と語る。同氏は、「遅延時間を削減するために、センサーからのデータ受け取りの方法を変更する必要があった。センサー自体も、100MHz〜1GHzの高速サンプリングに対応させなければならなかった」と続けた。
Qualcommは、6自由度の頭の動きを追跡するアルゴリズム「ビジュアルインターナルオドメトリ(視覚慣性走行距離計測)」を開発した。ヘッドセットのアクセラレーター、角速度センサー、磁力計、カメラで取得したデータを、Snapdragonに組み込まれた「Hexagon DSP」で処理して、同アルゴリズムと関連付けるという。
Qualcommは、同技術を盛り込んだSDK(ソフトウェア開発キット)を間もなくリリースする予定だという。一方、Googleは、次期Android OS「Android N」にセンサーフュージョンタスク処理を搭載する計画だという。これは、センサーフュージョン機能のないSoCを採用している携帯電話機メーカー向けの機能だと思われる。
Qualcommはホワイトペーパーの中で、「Snapdragon 820はmotion-to-photon latencyを18ミリ秒以下に抑えられる」と主張している。同社は、「この課題に対応するために、60Hzで動作するディスプレイは17ミリ秒ごとに、90Hzで動作するディスプレイは11ミリ秒ごとに、それぞれ更新している」と説明している。
Daydreamのヘッドセットは、アクティブマトリクス式有機ELディスプレイ(AMOLED)を搭載するという。AMOLEDは、従来のLCDよりも切り替え時間が短いため、ゴーストイメージが表示されにくい。
さまざまな画像レンダリング技術を駆使して、ユーザーに滑らかなモーションセンシング体験を提供する。また、マクロブロックを再利用して画像レンダリング処理を可能な限り減らすことで、バッテリーの消耗を抑えるという。
Leland氏は、「VRは、専用端末をPCに接続しないと体験できないと考えている消費者もいるだろう。Android端末を使ったVRは、こうした消費者にとって驚きの体験となるに違いない」と述べた。
一方のAppleは、次期スマートフォン「iPhone 7」がVRについてどう対応するのか。これもまた見ものである。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.