メディア

自動運転車の安全はどう認証すべきか(前編)米運輸用がガイドラインを発表(2/2 ページ)

» 2016年09月29日 13時30分 公開
[Junko YoshidaEE Times]
前のページへ 1|2       

自動運転車の安全性をテストで証明できるのか

米カーネギーメロン大学のPhilip Koopman教授

 米運輸局(DMV:Department of Motor Vehicles)は、人間に対し運転免許を与えるための試験を実施する機関である。しかし、無人の自動運転車の場合、機械を認証するための試験を行うには、どの機関が適しているのだろうか。さらに、現段階で、適切な試験そのものが果たして存在するのだろうか。

 米カーネギーメロン大学(CMU:Carnegie Mellon University)のPhilip Koopman教授は、「最も重要な点は、“自動運転車の安全性をテストで証明できるのか”ということだ」と指摘する。

 Koopman氏は、CMUの学部生に組み込みシステムについて、院生にセーフティクリティカルな組み込みシステムについて指導している。同氏は、CMUのロボット工学研究所(Robotics Institute)の商用部門である「National Robotic Engineering Center(NREC)」の研究チームで、自動運転車の安全性の調査や、ストレステストの開発、セーフティシャットダウンボックスや自動運転車の研究を指揮した経歴を持つ。

 Koopman氏は、2016年4月12〜14日に米国ミシガン州デトロイトで開催された「SAE 2016 World Congress*)」で「Challenges in Autonomous Vehicle Testing and Validation(自動運転車のテストと検証における課題)」と題する講演を行った。同氏は、同講演を聴講する自動車エンジニアに向けて「自動運転車が適切に動作することを実証するのは非常に難しい。安全を実現するためには、テストを行うだけでは不十分だ」と警鐘を鳴らした。

*)航空機、自動車、商用車業界の関連技術の技術者や専門家が情報の共有や標準の策定を進める非営利団体SAE Internationalが開催する年次会議

 Koopman氏はEE Timesの電話インタビューで、「テストが重要ではないという意味ではない」とはっきりと述べた。「もちろん、テストは必要だ。しかし、テストは安全性を証明するものでなく、適切に動作するかどうかを確認するものだ。安全性の課題に対する答えは、より多くのテストを実施することではない」と語った。

 Tesla Motors(テスラモーターズ)などの自動車メーカーは、「高度に自動化された自動車は、人間が運転するよりも安全だ」と早くから主張している。Koopman氏はこれに対し、「自動車エンジニアには一度振り返って全体像を見据え、公共の安全をより厳しく追求してほしい」と述べた。

膨大なテストが安全性の実証につながるわけではない

 Koopman氏が「より多くのテストを実施することが、必ずしも安全性の実証につながるわけではない」と考えるにはいくつかの理由がある。

 「まず、テストの数を増やすことは、メーカーが自身を苦しい立場に追い込むことにもなる。自動車の安全規格では、死亡事故が100万時間に1回しか起こらないことが求められると仮定しよう。エンジニアが数百万時間に及ぶ公正なテストを行う中で、事故が1度発生したとする。だが、事故が発生すれば、a)それまでは運がよかっただけなのか、b)テスト中の自動車が目標とする平均事故率をクリアしている中で、通常の統計変動が実際に反映されたのか、を見極めるためには、さらなるテストが必要になる」とKoopman氏は説明している。

 Googleはこうした理由から、ロードテストに加えて、数十億時間にも及ぶシミュレーションを実施していると思われる。Koopman氏は、「では、シミュレーションが現実のテストと同様に有効だと仮定してみよう。数十億時間にも及ぶテストの中で、ほんの数回の事故が発生すれば、さらに多くのテストを実施しなければならない。自動運転車が人間が運転するのと同じくらい安全であることを統計的に証明するために、テストの回数は3〜10倍に膨れ上がる可能性もある」と指摘する。

ISO 26262では機械学習を取り扱えない

車載システム開発のVモデル 出典:Philip Koopman教授のプレゼン資料

 Koopman氏は「テストをどれほど行ったところで、本当に証明すべきことを証明しているとはいえない。だからこそISO 26262のような規格を使うのだ。同規格はソフトウェアのバグを見つけ出すわけではないが、きちんとしたプロセスに基づいて作られている、という品質の確認はできる」と述べる。ただし、最も頭の痛い問題は、多くの専門家が自動運転の鍵と考えている機械学習は、ISO 26262では取り扱えないという点だ。

 自動運転車を開発する上で、研究者たちは、自動車に物体を認識させる方法としてニューラルネットワークに頼ってきた。研究者は、例えば「ネコとイヌの見た目がどう違うのか」を説明する“要件”を記述するわけではない。代わりに、膨大な量のネコやイヌの写真をマシンに見せて、ネコとイヌがどう違うのかを学習させるのである。

 Koopman氏は「要件がなくては、Vモデルを使えない」と指摘する。ISO 26262のエンジニアリングプロセスはVモデルになっている。だが機械学習では記述できる要件がない。つまり認証することができないということだ。

 では、高度に自動化された自動車の安全性はどのように認証すればよいのだろうか。

(後編に続く)

【翻訳:滝本麻貴、田中留美、編集:EE Times Japan】

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.