おはようございます!マネジメントオフィスいまむらの今村敦剛です。
EUのAI規制法案である"EU AI Act"に関して、7/23時点での最新情報を、かいつまんでお伝えします。(情報源は、The EU AI Act Newsletter #34です)
立法プロセスの進捗状況
AI Actに関しては現在、欧州委員会(EC)、欧州連合理事会、および欧州議会による三者会議(Trilogue)が行われています。
EURACTIVのLuca Bertuzziによると、AI Actの三者会議は進展しており、技術レベルで軽微な問題点についてはクリアされつつあるようです。
ただし政治レベルでの確認が必要な部分もあります(例えば高リスクとみなされるAIシステムのプロバイダーやユーザーの義務、適合性評価機関、技術基準など)。
イノベーションを推進する規定(サンドボックスのこと?)と基本的人権への影響評価の義務(訳者注:AIシステムが不当な差別に使われないようにするための評価)については、まだ協議中のもようです。また法案では、高リスクのAIシステムについては、プロバイダーが市場投入する前に、高リスク AI システムのプロバイダーは、市場に投入または運用を開始する前に、第三者機関による適合性評価を受けることを求めていますが、これについても加盟国の当局によって承認を受ける前の段階のようです。また、適合性評価機関の指定やその異議申し立て手続きは見直されたようです。
技術基準の策定においては、今後は欧州委員会だけではなく、AIオフィスとアドバイザリーフォーラムとの協議が今後は必須となるようです。
最後に、欧州議会の議員は、高リスクのAIシステムのユーザーに対して、使用前に基本的な人権影響評価を行う義務を導入しましたが、スペインの議長国はこれを公的機関に限定し、利害関係者との協議を任意のものとすることを提案しているそうです。
EU AI Actに対する識者・利害関係者の意見
最近では、EU AI Actに対して、以下のような識者・利害関係者の意見があるそうです。
1つ目は、Kai Zennerさんという人(とある欧州議会議員のデジタル政策アドバイザー)は、最新のAI基盤モデルが、現在のAI Actでは十分に考慮されていないと主張しています。基盤モデルというのは、大規模人工知能モデルのことで、GPT-3やGPT-4などが有名です。Chat GPTなどを想像するとわかりやすいですが、基盤モデルは多機能で、多くのことができるので、制御が難しいという側面があります。そのため、Kai Zennerさんは、AI Actがこれらの最新の基盤モデルもちゃんと考慮に入れるように改善することを提案しています。
2つ目は、ドイツのシンクタンク研究員であるPegah MahamさんとSabrina Küspertさんが書いたレポートの話です。このお二人は、AI ActがAIのリスクをもっと理解していなければならないと言っています(例えば、AIが予測できない行動をとる可能性や、AIが悪用される可能性、そして、AIが社会の問題を作り出す可能性など)。
3つ目は、AI Actが人々の権利を第一に考えるよう、151の団体が、市民社会組織がEUの機関に対して求めました。これらの団体は、AI Actによって、人々がAIによる問題を解決できるようにすること、AIのシステムが公正であること、そしてAIが大企業の影響力に屈しないことなどを求めています。
4つ目は、ヨーロッパのアメリカ商工会議所が、AI Actについての提案を出しました。欧州アメリカ商工会議所は、AIの定義を国際的に認められたものにすることや、AIのリスクを明確にすることなどを提案しています。
最後に、ヨーロッパのクリエイターと著作権保持者の団体が、AIが著作権を守ることを求めています。彼らは、著作権者を保護するために、AIが作品を作るために使った資料の記録を残すことを提案しています。