“AIの安全性”は確保できるのか:加速する議論
Teslaのロボットアシスタントの派手なお披露目は、AI(人工知能)の安全性や、自動システムが街中の道路や工場のフロアの上に解き放たれる前にそれをどのようにテスト、検証できるかに関する継続中の議論に拍車を掛けた。
Teslaのロボットアシスタント「Tesla Bot」の派手なお披露目は、AI(人工知能)の安全性や、自動システムが街中の道路や工場のフロアに解き放たれる前にそれをどのようにテスト、検証できるかに関する議論に拍車を掛けた。
AIの性能が誇張されて宣伝されていた時期には、「邪悪なマシンが徐々に開発者を征服するようになる」とか、「戦場で制御されずに歩き回るようになる」といったことに懸念が集中していた。だがその後は、議論はより現実的なものとなり、安全性に焦点が当てられるようになった。
現時点では、アプリケーションに搭載された自律型システムは、ミッションクリティカル(業務の遂行に不可欠な要素)には程遠いままだ。特に議論されているのは、人間のオペレーターが自律型システムを信頼できる形で、どのようにAIの安全性を高められるかという点だ。
自動車アナリストで米国EE TimesのブロガーでもあるEgil Juliussen氏は、規制当局が受け入れる好ましい第1段階は、運転者支援システムを搭載した自動車が絡むAIの事故を「accident(事故)」ではなく「crash(衝突)」と認めることだとしている。同氏は「『crash』は誰かの過失であり、責めを負うのはその誰かになるので、自動車業界は『crash』を使う方に移行しつつある。『accident』という言葉だと誰かが“ただ乗り”できることが多い」と述べた。
AIの安全性を巡る一連の政策概要の中で、米国ジョージタウン大学の「Center for Security and Emerging Technology(セキュリティおよび新興技術センター)」の研究者らは、より安全なAIシステムを実現するための工学的要件を特定しようと試みている。
上記の政策概要の執筆者であるZachary Arnold氏とHelen Toner氏は「今日の最先端のAIシステムは多くの点で強力である一方で、非常に脆弱な点もある。そうしたシステムには“常識”が一切なく、予期や予測ができない形で失敗し得る」と書いている。
さらに両氏は「多くの場合、最先端のAIシステムがなぜそのように動くのかを理解することは難しいか不可能である」とした上で、過ちを犯しがちなAIシステムの信頼の度合いについて「恐ろしい結果をもたらす可能性がある」と付け加えた。
中心的な問題は、ブラックボックスのようなAIシステムが機能する仕組みを理解することにある。あるいは、いわゆる「説明可能なAI(Explainable AI)」と言い換えてもいいだろう。
そのことから、前出の研究者らは、安全なAIシステムを確保するためのパラメータを設定し始められるような、AIテストベッドの設立を提案している。Arnold氏とToner氏は「現時点では、一般的に認められた安全なAIの定義はない。また、事故の危険に備えて現実世界のAIシステムをテストするための標準的な方法もない」とまとめている。
飛行機のオートパイロットのようなフェイルセーフアプリケーションに用いられた初期のエキスパートシステムのテストについては証明済みの方法があるが、AIではそうした方法はない。Toner氏はインタビューの中で「それらの方法は深層学習には役立たない」と強調した。
「私たちは、ミスや誤作動が深刻な事態を招く可能性がある場所でこれらのシステムを使い始めるにあたり、新しい方法論の開発に多くの努力を払うべきだと考えている。AIシステムを事前にテストし、何ができて何ができないのか、いつ動作していつ動作しないのかを確実に把握する方法が必要だ」(同氏)
Teslaのような先駆的な企業は、Tesla BotのようなプロトタイプでAI技術の限界を押し広げながらも、この見解に近づいているかもしれない。TeslaのCEO(最高経営責任者)であるElon Musk氏は、最近開催した「AI Day」でTesla Botを発表し、意図しない結果を認めている。
Musk氏は、Tesla Botについて「友好的であることを意図している」と強調。「機械的にも物理的にも、人々が(Tesla Botから)逃げ出すことができるように設定している」(同氏)という安全策には笑いが起きた。一方でリスクヘッジも忘れなかった。Toner氏らは、Tesla Botは進化の初期段階にあるのだから(Musk氏がリスクヘッジをすることも)当然だろうと考えている。
Toner氏は、「AIのエンジニアリング分野というのは、実際には存在ない。技術的な基準もなければ、どのような性能を達成したいのか、それを達成しているかどうかをどうやって見分けるのかについての理解もない」と述べる。
「AIの開発は転換期を迎えている。AIは明らかに多くのことに役立つ可能性があるが、これまでのところ、かなり小さな”賭け”にしか使われていないことがほとんどだ。問題は、信頼性の課題を解決して、より高いリスクを伴うアプリケーションの可能性を広げることができるかどうかだ。それについては、私は懐疑的な見方をしている」(同氏)
【翻訳:青山麻由子、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 車載エッジAI新興企業のBlaize、7100万米ドルの資金調達
米国のスタートアップ企業であるBlaize(旧ThinCI)は、7100万米ドルのシリーズD資金調達ラウンドを終了した。同ラウンドは、今回新に参加した投資家のFranklin Templeton氏と以前から同社に投資していたシンガポールの政府系投資会社Temasekが主導し、デンソーなどの既存および新規投資家や企業が参加した。 - Untether AI、Intel Capitalら主導の投資ラウンドで1億2500万ドル調達
データセンター向けAIチップを手掛けるカナダの新興企業Untether AI が、Tracker Capital ManagementとIntel Capitalが共同で主導した投資ラウンドにおいて、1億2500万米ドルの資金を調達した。 - ムクドリの群れから考える、自動運転の課題
他ならぬTeslaのCEOであるElon Musk氏も、自動運転が難しいことを認めている。同氏は最近Twitterに「これほど難しいとは思っていなかった。振り返ってみればその難しさは明白だ」と投稿し、「現実よりも自由度が高いことはない」と付け加えた。今回の記事では複雑性理論というテーマに立ち戻り、本質的な複雑性の科学の不思議を解き明かす他、複雑性が機械学習を用いた自動運転技術の開発にもたらす課題の一部に着目する。 - 帯域幅とメモリを増大したエッジAI向けFPGA
Lattice Semiconductor(以下、Lattice)の日本法人であるラティスセミコンダクターは2021年6月29日、エッジアプリケーション向けの汎用FPGAとして「CertusPro-NX」を発表した。 - 拡大するエッジAI市場
AI(人工知能)は当初、データセンターやクラウドを対象としていたが、近年ネットワークエッジへの移行が急速に進んでいる。ネットワークエッジでは、エンドユーザーの近くでローカルに迅速かつ重要な決定を行う必要がある。 - NVIDIA「DRIVE Atlan」、1000TOPSの信ぴょう性
現在、自動運転車の市場は潜在的な可能性を秘めている。NVIDIAのCEOであるJensen Huang氏は、「数兆米ドル規模のエコシステム」の実現に向けた計画を自社イベント「GTC(Graphic Technology Conference)」でアピールした。