AI(人工知能)は2017年に、精度やスケーラビリティが大きく改善したが、2019年は偏りをなくし、意思決定の透明性を高める取り組みが盛んになると予想される。
AI(人工知能)は2017年に、精度やスケーラビリティが大きく改善したが、2019年は偏りをなくし、意思決定の透明性を高める取り組みが盛んになると予想される。
IBM Researchのバイスプレジデントを務めるJeff Welser氏は、「当研究所は過去1年間、AIに関するいくつかのマイルストーンを達成した。2019年は、3つの主要課題に注力する予定だ」と述べている。同氏は、「AIが実現するコグニティブソリューションを、企業が採用しやすいプラットフォームの形にすることは、当社にとって不可欠な事業戦略だ。それと同時に、AIが持つ理解力を高め、偏りをなくして信頼性を向上するという課題にも取り組んでいきたい」と説明した。
Welser氏はAIの進歩に関して、「会話を理解する力や画像分析など、いくつかの分野で進展がみられた」と述べている。IBMのAIシステム『Project Debater』は、AIが単純な質疑応答以上の会話を理解できるように拡張され、マシンが人間の議論をさらに理解できるようになった。これによって、「政府は遠隔医療に対する財政支援を増やすべきか否か」といった明確な答えがないテーマについての議論も可能になった。
Welser氏は、「会話の理解力を高めることと同様に、目の前にあるものを迅速かつ正確に認識する能力の向上にも注力してきた」という。同氏は、「視覚認識モデルのトレーニングには従来、数千から数百万枚のラベル付けされた画像が必要だった。現在は、ガイドラインとなる1枚の画像を学習させるだけで新しいオブジェクトを認識できるようになり、スケーラビリティが向上した」と説明した。
同氏は、AI学習にスケーラビリティを持たせるもう一つの方法として、AIエージェント同士の相互学習について説明した。IBMの研究チームは、AIエージェントが知識を交換することで、従来の手法よりも学習速度が大幅に向上するフレームワークとアルゴリズムを開発した。さらに、従来の手法がどこで失敗するかを整理して学習させることもできるという。
Welser氏は、「より複雑なタスクを実行する場合でも、大型システムのトレーニングが必須というわけではない。個々のシステムを組み合わせて複雑なタスクを実行することもできる」と述べている。
IBMは、深層学習モデルに必要な計算リソースの削減も進めている。同社は2015年に、16ビット精度で深層学習モデルをトレーニングする手法を発表した。現在は、画像や音声、テキストなどのAIの主要なデータセットのモデル精度を損なわずに、8ビット精度でトレーニングできるようになったという。
こうした進歩は全て、“AIが信頼できるものでなければならない”という認識によって実現されるべきものであり、Welser氏は、2019年はこの点に焦点が当てられると述べる。あらゆる技術と同様に、AIも悪意のある操作の対象となる可能性があるため、そうした攻撃を予測する必要もある。
現時点でAIは、「Adversarial Example」と呼ばれる脆弱(ぜいじゃく)性を抱えていることが明らかになっている。これは、例えば画像認識を例にとると、人間が気付かないようなわずかな変更を元画像に加えることで、画像認識を大幅に誤動作させるという攻撃だ。IBM Researchは、これに対処する幾つかの進歩を実現しているという。
もう一つの課題は、ニューラルネットワークがブラックボックス化する傾向があるということだ。こうした透明性の欠如は、AIを信頼する上で障壁となり得る。一方で、意思決定をAIに依存する度合いがますます高まる中で、偏見をなくすことも重要だとWelser氏は述べている。
Welser氏は、「これまでは、AIシステムを設計し、AIに処理をさせるというだけで、エンジニアたちは、ただただ興奮していた。現在はその先へ一歩進み、自分たちの考え方や見方に偏りがないか、問題かないかをより真剣に考えるようになっている」と述べた。
【翻訳:滝本麻貴、編集:EE Times Japan】
Copyright © ITmedia, Inc. All Rights Reserved.