検索
特集

ADASの新たな課題は「センサーのクリーニング」避けられないコスト増(2/2 ページ)

自動車に、運転支援や自動運転向けに複数の種類のセンサーが搭載されるようになったことで、『予期せぬ事態』が生じている。

Share
Tweet
LINE
Hatena
前のページへ |       

Teslaの「レーダー廃止」が注目される理由

 複数の異なるセンサーデータが相互に補完し合うことで、単一のセンサーモードよりも優れたADASや自立走行の性能が得られるというのが、複数のセンサーを組み合わせて車両に搭載する一般的な理由である。

 しかし、異なる種類のセンサーを追加することが重要な理由は他にもある。ある種類のセンサーの性能が、雨や泥、そして飛び散った虫などの環境によって低下したり、完全に停止したりした場合、障害物の影響を受けにくい(あるいは受けない)別のセンサーからのデータのバックアップが重要になる。

 Teslaが2021年5月に「レーダーを廃止しカメラに完全に依存する」と発表して注目を集めているのは、このような理由によるものだ。少し考えれば、Tesla車が泥をかぶって目が見えなくなる状況がどうしても出てくるであろうことは、誰でも分かる。だからこそ、今回のTeslaの決定を一時的なものだと解釈する自動車専門家はほとんどいない。

 そこで、前述した通り、XilinxのWillard Tu氏に、障害物の種類が異なる場合の各センサーの挙動について聞いてみた(同社のFPGAは、一部の自動車メーカーでセンサーデータの処理に採用されている)

 Tu氏は、「例えば、レーダーがビジョンシステムよりも優れている点は、雨や霧などでレーダーシステムの航続距離が制限されていても、レーダーはそれを切り抜けることができることだと」説明した。

 一方で、「泥は特殊だ」とTu氏は続けた。「レーダーは乾いた泥なら簡単に透過するが、湿っている泥はどうだろうか。水は導電性があり、信号をひずませることがある」

 下図は、複数のカメラ、レーダー、LiDARが相互に補完し合う様子を示したものだ。自動車メーカーの中には、この3つを全て評価しているところもあれば、3つのうち2つで済むかどうか(どの組み合わせにするか)を検討しているところも少なくない。Tesla以外で、単一のセンサータイプを検討しているところはほとんどない。


複数のセンサーが相互に補完し合う様子を示したもの(クリックで拡大)

 「私は、2種類のセンサーを使うべきだと考えている」とTu氏は述べる。「LiDARとレーダーはどちらも測距が得意だ。カメラはカラーが得意だが、LiDARとレーダーには不可能だ。一方で、LiDARは、文字に十分なエッジがあれば、標識を読み取ることができる場合もある。コストと性能は常にトレードオフの関係にある」(同氏)

 「ほとんどの自動車メーカーはカメラを求めている。カメラは安価で簡単だ。LiDARやレーダーはその次だろう」とTu氏は続けた。

 しかし、どのセンサーを使うか、あるいはどの組み合わせにするかということよりも、判断は複雑なものになるとTu氏は説明している。

 センサーデータが増えれば増えるほど処理能力が必要となる。自動車メーカーは、収集するデータ量と必要な処理能力のバランスを、AIの洗練度に応じて、かなりの余裕を持って調整している。

 Tu氏は、「優れたAIが鍵を握っている」と語り、ある画像を示した。それは、Xilinxの顧客が、視界に入る全てのものを正確に識別するために使用したという、実際のセンサー読み取りによる点群だ。この画像を見たとき、われわれは何が写っているのかを想像することすらできなかった。そしてそれは、洗練されたAIであれば、最小限のデータで予想以上の結果を出すことができるということを示していた。

 LiDARやレーダーの技術者が、一部分が見えにくいときにAIを活用すると言っているのは、上記のことを意味している。比較的少ないデータでもAIが機能するのと同様に、十分なトレーニングを行えば、通常よりも少ないデータしか得られないという問題をAIで解決することができるのだ。

【翻訳:田中留美、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る