「CES 2018」の基調講演に登壇したIntelは、自動運転車向け開発プラットフォームを紹介した。競合陣営がレーダーやライダーなどを活用するAI(人工知能)ベースのセンサーフュージョンに注力するのに対し、Intelは“カメラ”の活用を最優先する考えだ。
IntelのCEO(最高経営責任者)を務めるBrian Krzanich氏は2018年1月8日(現地時間)の夜、「CES 2018」(2018年1月9〜12日、米国ネバダ州ラスベガス)に登壇し、同社の自動運転車向けプラットフォームを紹介した。同氏のスピーチは、CES 2018で最も期待されていた。
Intelが買収したMobileyeは2017年の夏に、レベル4(L4)の自動運転車を100台以上製造する計画を発表していたが、今回初めて、MobileyeのCEOがKrzanich氏と共に登壇した。
この基調講演は、Intelがいつものように、自動運転向けプロセッサの優れた処理性能(TOPS:Tera Operations Per Second)と消費電力(ワット)などを誇示すると予想していた参加者にとっては、意外な内容だった。
Intelは、“カメラファースト”の自動運転車戦略を進めているという。具体的には、活用が進んでいるカメラベースのADAS(先進運転支援システム)を用いて、自動運転の安全な走行に役立つ“ロードブック(走行経路、区間距離などが記載されている冊子)”を構築する計画だ。ここで重要なのは、Intelが「自動運転の開発には、複雑なセンサーフュージョンやブルートフォースプロセッシングが重要だ」とは主張していないことだ。
Intelの戦略から、自動運転車業界の実態が見て取れる。自動運転車業界はまだ未成熟ではあるが、既に2つの派閥に分かれている。IntelおよびMobileye陣営は、競合に比べるとより長期的な進化の道を歩み始めている。一方でWaymoやUberTechnologiesは、できる限り迅速に自社の自動運転車を開発して配車サービスやロボタクシー事業への参入を急いでいるように感じる。
VSI Labsの創設者でプリンシパルを務めるPhil Milagney氏は、「自動化機能が段階的に進化していくと考えれば、Intelのアプローチは非常に現実的だ」と評している。
基調講演の中で発表されたIntelの自動運転車向け開発プラットフォーム「Intel GO」は、2018年に発売予定だという。“ビジョンファースト”の哲学を中核に組み込んだ同プラットフォームは、驚くほどシンプルだ。Mobileyeの2つの「EyeQ5」チップ(1つはビジョン処理用で、もう1つはセンサーフュージョンおよびプランニング用)、IntelのSoC(System on Chip)「Atom」で構成される。FPGAやニューラルネットワークプロセッサ「Intel Nervana platform」、その他の驚くようなAI(人工知能)チップは一切搭載されていない。
Intelの対抗陣営は、対象物の検知にLiDAR(ライダー)やレーダーなどさまざまなセンサーを活用する。これに対し、Intelは、「カメラは、自動運転車が走行路の地形やその他の静的な状況に確実に対応できる唯一のリアルタイムセンサーだ。カメラは、最も低いコストで最高の性能データを自動運転車に提供できる」と主張している。
Intelの“ビジョンファースト”アプローチに対し、Waymoの自動運転車は、位置情報の特定をHDカメラ、レーダー、ライダーによるAIベースの高性能センサーフュージョンで行っている。
米国の市場調査会社であるStrategy Analyticsで車載接続モビリティ部門のディレクターを務めるRoger Lanctot氏は、「Intelは、距離計算にカメラ、レーダー、低解像度のライダーを利用して自動運転を進化させる道を選んだ」と述べている。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.