AIは品質・信頼性確保が急務、「日本が先行している」:社会実装で新たな技術課題が(1/2 ページ)
2019年8月29〜30日に開催された「イノベーションジャパン2019」(東京ビッグサイト)で、JST(科学技術振興機構)は、AI(人工知能)の最新動向を紹介するセミナーを行った。JSTは、「機械学習が社会に実装され始めているのが第3次AIブームの大きな特長だ」と述べる。
2019年8月29〜30日に開催された「イノベーションジャパン2019」(東京ビッグサイト)で、JST(科学技術振興機構)は、AI(人工知能)の最新動向を紹介するセミナーを行った。
登壇したJST研究開発戦略センター システム・情報科学技術ユニットの福島俊一氏は、AIについて「第1次、第2次のAIブームとは異なり、機械学習が社会に実装され始めているのが第3次AIブームの大きな特長だ」と述べる。
福島氏は「AIに対する期待はピークを越え、幻滅期に入りつつあるとの見方もあるが、国内外のAI関連学会の参加者数は依然として爆発的に増加している。機械学習分野の最高峰の国際会議である「NeurIPS 2018」では、申込者数がわずか11分で定員に達した」と続け、第3次AIブームの勢いが衰えていないと強調する。
社会実装で浮き彫りになった新たな技術課題
一方で、AI(特に機械学習/深層学習)の精度向上による利益も確実に大きくなっているが、社会に実装され始めたことで新たな技術課題が生まれていると指摘。国や世界レベルで、“AIの社会原則”について議論や指針の策定が進んでいると述べた。例えば日本は内閣府が「人間中心のAI社会原則」を策定している。同様に、欧州には「Ethics Guidelines for Trustworthy AI(信頼できるAIのための倫理指針)」、IEEEには「Ethically Aligned Design(倫理的に配慮されたデザイン)」といった指針がある。
福島氏は、AIの新たな技術課題の具体例として、ブラックボックス問題、バイアス(公平性)問題、品質保証などを挙げた。
ブラックボックス問題では、「人間が理解できる理由説明を出してくれない」「どんな振る舞いをするのか動作保証ができない」「事故発生時に、原因解明や責任判断ができない」といった点が懸念されている。要は、説明責任の問題だ。
バイアス問題は、学習データに偏見が含まれていると、推論結果にもその偏見が反映されてしまうというものだ。2018年に、AmazonがAIを活用した人材採用システムの運用を取りやめたのは、まさにこのバイアス問題が理由だった。学習させた過去の採用データでは大多数が男性だったため、「男性を採用した方がよい」という判定ルールになってしまったのだ。
品質保証については、AIの振る舞いでは仕様が定義できないため、そもそもテストの成否を定めることが難しい。顧客との契約や出荷判定をどうすればよいかも悩ましい問題だ。
Copyright © ITmedia, Inc. All Rights Reserved.