メディア
コラム
» 2021年08月27日 13時45分 公開

“AIの安全性”は確保できるのか加速する議論

Teslaのロボットアシスタントの派手なお披露目は、AI(人工知能)の安全性や、自動システムが街中の道路や工場のフロアの上に解き放たれる前にそれをどのようにテスト、検証できるかに関する継続中の議論に拍車を掛けた。

[George Leopold,EE Times]

 Teslaのロボットアシスタント「Tesla Bot」の派手なお披露目は、AI(人工知能)の安全性や、自動システムが街中の道路や工場のフロアに解き放たれる前にそれをどのようにテスト、検証できるかに関する議論に拍車を掛けた。

Teslaが発表したロボットアシスタント「Tesla Bot」 出典:Tesla

 AIの性能が誇張されて宣伝されていた時期には、「邪悪なマシンが徐々に開発者を征服するようになる」とか、「戦場で制御されずに歩き回るようになる」といったことに懸念が集中していた。だがその後は、議論はより現実的なものとなり、安全性に焦点が当てられるようになった。

 現時点では、アプリケーションに搭載された自律型システムは、ミッションクリティカル(業務の遂行に不可欠な要素)には程遠いままだ。特に議論されているのは、人間のオペレーターが自律型システムを信頼できる形で、どのようにAIの安全性を高められるかという点だ。

 自動車アナリストで米国EE TimesのブロガーでもあるEgil Juliussen氏は、規制当局が受け入れる好ましい第1段階は、運転者支援システムを搭載した自動車が絡むAIの事故を「accident(事故)」ではなく「crash(衝突)」と認めることだとしている。同氏は「『crash』は誰かの過失であり、責めを負うのはその誰かになるので、自動車業界は『crash』を使う方に移行しつつある。『accident』という言葉だと誰かが“ただ乗り”できることが多い」と述べた。

 AIの安全性を巡る一連の政策概要の中で、米国ジョージタウン大学の「Center for Security and Emerging Technology(セキュリティおよび新興技術センター)」の研究者らは、より安全なAIシステムを実現するための工学的要件を特定しようと試みている。

 上記の政策概要の執筆者であるZachary Arnold氏とHelen Toner氏は「今日の最先端のAIシステムは多くの点で強力である一方で、非常に脆弱な点もある。そうしたシステムには“常識”が一切なく、予期や予測ができない形で失敗し得る」と書いている。

 さらに両氏は「多くの場合、最先端のAIシステムがなぜそのように動くのかを理解することは難しいか不可能である」とした上で、過ちを犯しがちなAIシステムの信頼の度合いについて「恐ろしい結果をもたらす可能性がある」と付け加えた。

 中心的な問題は、ブラックボックスのようなAIシステムが機能する仕組みを理解することにある。あるいは、いわゆる「説明可能なAI(Explainable AI)」と言い換えてもいいだろう。

 そのことから、前出の研究者らは、安全なAIシステムを確保するためのパラメータを設定し始められるような、AIテストベッドの設立を提案している。Arnold氏とToner氏は「現時点では、一般的に認められた安全なAIの定義はない。また、事故の危険に備えて現実世界のAIシステムをテストするための標準的な方法もない」とまとめている。

 飛行機のオートパイロットのようなフェイルセーフアプリケーションに用いられた初期のエキスパートシステムのテストについては証明済みの方法があるが、AIではそうした方法はない。Toner氏はインタビューの中で「それらの方法は深層学習には役立たない」と強調した。

 「私たちは、ミスや誤作動が深刻な事態を招く可能性がある場所でこれらのシステムを使い始めるにあたり、新しい方法論の開発に多くの努力を払うべきだと考えている。AIシステムを事前にテストし、何ができて何ができないのか、いつ動作していつ動作しないのかを確実に把握する方法が必要だ」(同氏)

 Teslaのような先駆的な企業は、Tesla BotのようなプロトタイプでAI技術の限界を押し広げながらも、この見解に近づいているかもしれない。TeslaのCEO(最高経営責任者)であるElon Musk氏は、最近開催した「AI Day」でTesla Botを発表し、意図しない結果を認めている。

TeslaのCEO(最高経営責任者)Elon Musk氏 出典:Tesla

 Musk氏は、Tesla Botについて「友好的であることを意図している」と強調。「機械的にも物理的にも、人々が(Tesla Botから)逃げ出すことができるように設定している」(同氏)という安全策には笑いが起きた。一方でリスクヘッジも忘れなかった。Toner氏らは、Tesla Botは進化の初期段階にあるのだから(Musk氏がリスクヘッジをすることも)当然だろうと考えている。

 Toner氏は、「AIのエンジニアリング分野というのは、実際には存在ない。技術的な基準もなければ、どのような性能を達成したいのか、それを達成しているかどうかをどうやって見分けるのかについての理解もない」と述べる。

 「AIの開発は転換期を迎えている。AIは明らかに多くのことに役立つ可能性があるが、これまでのところ、かなり小さな”賭け”にしか使われていないことがほとんどだ。問題は、信頼性の課題を解決して、より高いリスクを伴うアプリケーションの可能性を広げることができるかどうかだ。それについては、私は懐疑的な見方をしている」(同氏)

【翻訳:青山麻由子、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.