検索
ニュース

EUのAI規則案、「ハイリスクなAI」の定義が重要に弁護士が疑問を提示

2024年に完全施行される予定の、欧州のAI規則案。これについて米国のある弁護士が、従来使われてきたローリスクのAI技術も同規則案に含まれるべきなのか、疑問を投げかけている。

Share
Tweet
LINE
Hatena

「なぜEU AI Actが必要なのか」

 欧州議会とそれに関係するステークホルダーが人工知能(AI)を統治するための法律(EU AI Act/欧州AI規則案)を作成する一方、米国のある弁護士は米国EE Timesに対し、そうした法律は「AI以外の技術についても考慮する必要がある」と語った。

 法人および防衛向けAI搭載ソフトウェアの開発を手掛けるDiveplaneで総合弁護士兼CLO(最高法務責任者)を務めるMichael Meehan氏は「AI技術は、処理などをより簡単に、より迅速にするが、理論上は、AI技術で行えることは全てコードで書ける、ともいえる。つまり、AIでできることは、他の手法でもできる、ということだ」と述べる。

 Meehan氏はロースクールに入る前にコンピュータサイエンスで博士号を取得している。同氏は、自身が執筆した論文からある例を示した。その論文を書くにあたり、心拍数検出のためのコードを書いたが、プログラムの完成には3カ月を要したという。

 Meehan氏は「当時の私は(心拍数図上の)全ての波形を見て、実際のアルゴリズムの観点で心拍がどのように見えるかを把握しなければならなかった。一方、AIを使えば、全ての心拍を分類し、AIモデルをトレーニングするだけで、AIが心拍数を検出してくれる」と述べた。

 EUが、AIと同様の害を及ぼし得るコンピュータプログラムを禁止する上で既存の法律に頼っているならば、「なぜEU AI Actが必要なのか」とMeehan氏は疑問を呈した。

ハイリスク/ローリスクのAIの定義が重要に

 Meehan氏は、EU AI Actの代わりに、AIとAIの代わりになり得るコンピュータプログラムの事例をカバーするより幅広い「EU Automated Systems Act」を提案している。

 Meehan氏は「その法令について何も変える必要すらない。AIを定義する必要もない。リスクの高いことは禁止されるべきだし、リスクの低いことは問題ないとされるべきだ」と述べた。

 一方、14の産業団体から成るグループは最近、EU AI Actに関する共同声明を発表した。その中で、このグループは欧州議会に対し、同法令を策定する上でリスクベースのアプローチを維持すること、リスクの高いAIの定義を明らかにすること、同法令が既存の規制と重複しないこと、矛盾する義務を制定しないことなどを要請した。

 BSA The Software Alliance(以下、BSA)の広報担当者で、EMEA(Europe, the Middle East and Africa)のポリシー担当ディレクタも務めるMatteo Quattrocchi氏は、EE Timesに対し「汎用AIから画像編集に至るまで、リスクが低いAIのユースケースまで含めようとする提案は数多く見てきた」と語った。

 Quattrocchi氏は「BSAは、EU AI Actがリスクの高いアプリケーションに焦点を当て、AIの特定のユースケースが引き起こす特定の懸念に対処することを提案している。例えば、特定の種類のAIに対する透明性を命じる条項52にそうした内容を含ませるといったやり方がある」と述べた。

 Lexologyによると、同法案のドラフト版の条項52(1)には、「プロバイダーは、自然人とのやりとりを目的にしたAIシステムを、やりとりしている相手がAIシステムであることを確実に自然人に知らせるように設計、開発するものとする。ただし、そのことが状況や利用の脈絡から明らかである場合を除く」とあるという。

 Quattrocchi氏は、BSAが、AIに対するリスクベースのアプローチを一貫して提唱してきたと述べた。そうしたアプローチでは、基本的権利を保護し、潜在的な害を回避/軽減し、経済のあらゆる領域でのイノベーションを実現するため、バリューチェーンに沿って責任が適切に割り当てられるという。

 Quattrocchi氏は「欧州議会がEU AI Act上の位置をまとめる中、われわれはこのメッセージを繰り返し述べたいと思う。このメッセージは、医療機器メーカーからセキュリティプロバイダー、園芸業界に至るまで、ヨーロッパ全土の多くの領域で共有されている」と述べた。

 European Garden Machinery Federation(EGMF、ヨーロッパ園芸機械連盟)は、複数の業界団体による声明に署名した組織の一つである。同連盟のウェブサイトによると、欧州の園芸業界は「庭園/造園向け機材のメーカーや、森林地や芝を維持管理するための機材のメーカーで構成されている」という。

 同連盟にとっては、EU AI Actに含まれた関連用語の定義が極めて重要である。

 Quattrocchi氏は「EU AI Actは、AIの開発者や導入者に対する重要な法的義務を作り出す。そのため、企業が自社にどの順守要件が義務付けられているのかを確実に認識できるよう、“ハイリスク”と“ユースケース”の定義を可能な限り明らかにする必要がある。ハイリスクなAIの定義では、健康や基本的権利に対する害の重大なリスクにつながる使用のみをAnnex IIIの範囲内にすべきという点を明確にする必要がある」と述べた。

 EU AI Actのウェブサイトによると、同法案の要件の大部分を順守しなくてはならないのは、Annex IIIに含まれたAIアプリケーションのみだという。

 Quattrocchi氏は、リスクレベルはユースケースと密接に関連していると述べた。例えば、機械学習を用いて植物の写真を識別するアプリのリスクは低く、現実世界の人々に有害な結果をもたらしそうもない。一方で、ヘルスケアサービスで医療の専門家がAIシステムを使って治療法を提言する場合、リスクは高くなる可能性がある。

 法律が最終的にどのようなものになっても、大きな賭けとなる。

 Quattrocchi氏は「EU AI Actは、この種のものとしては初めての法律であり、信頼できるAIの開発、導入、普及に向けた取り組みを強化する機会を欧州にもたらている」と語る。「イノベーションを可能にし、基本的権利を保護すべき新しいルールを作るには、微妙なバランスで調整していく必要がある。BSAはその取り組みを全面的に支持し、政策立案者が必要な時間をかけて、欧州におけるAIの導入を加速させ、技術的リーダーシップを高められるような検討案を作ることを奨励する」(同氏)

【翻訳:青山麻由子、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る