おはようございます!マネジメントオフィスいまむらの今村敦剛です。
EUのAI規制法案である"EU AI Act"に関して、10/5時点での最新情報を、かいつまんでお伝えします。(情報源は、The EU AI Act Newsletter #37です)
スポンサーリンク
立法過程の現状
ロイターによれば、AI法の交渉を担当する議員の中の一人、ブランド・ベニフェイは、年内に合意を目指しており、EUの加盟国に重要な問題での妥協を求めたということです。来月、2回の協議が控えている中、ベニフェイ氏はEU各国に対し、もっと柔軟な考え方が必要だと強調しています。その背景には、意見が割れている議題が存在するからです。
最も議論が集中しているのは、生体認証を利用した監視や、ChatGPTのようなAIが著作物を使うことの2つです。多くの議員は、顔認識や指紋認識などの生体情報を使った監視にAIを活用することを制限したいと考えています。しかし、フランスをはじめとするいくつかのEU国は、国の安全や軍事のためには例外を認めるべきだと主張しています。また、AIが著作権で保護された内容をどう扱うかについての明確なルールを設けたいという声も上がっています。これに対し、多くのEU国は、現行の著作権ルールで既に十分な対応ができると考えているようです。
欧州委員会の一アドバイザーは、生体認証の利用に関する最終決定は、ギリギリまで確定しないかもしれないとの見解を示しました。
オックスフォード大学研究員の提言
オックスフォード大学ブリティッシュ・アカデミー博士研究員のヨハン・ラウクスは、AIを規制するにあたって、AIオフィス(筆者注:よくわからない組織だが、おそらくEU内のAI関連の問題について検討をするタスクフォースのようなもの?)が重要だという論文を執筆したそうです。ラウクス氏は、AIオフィスが、「調和された基準の開発」「AI法の改正」「法廷における法的問題の処理」という3つの主要分野において、意思決定者に助言し、調整することを推奨しています。(筆者注:おそらく、そういうサポートをする専門の組織を作ったらどう?という提言なのだと思います)
人権保護団体の提言
Tech & Rights(ヨーロッパで人々の権利を守る組織)のエヴァ・サイモン氏と、Civil Liberties Union For Europe(同じく権利保護団体)のジョナサン・デイ氏は、私たちの権利を守るために、AI法には「法の支配」(筆者注:権力者であっても、みんなが法の下に公平に扱われるいという考え方)を保護するための措置を含めるべきだと主張しました。SimonさんとDayさんは、この法案の重要性は、人権の保護だけでなく、「法の支配」との重要な関連性にもあると説明しています。「法の支配」はEUの基石であり、透明な法制定、権力の分立、公正な裁判所、差別のない原則などの価値を包含しています。著者らは、AIの導入において正義、説明責任、公平性を確保するために、基本的な権利の影響評価が必須であると主張し、これらの評価に「法の支配」の基準を組み込むべきだと提案しています。これには、リスク評価、緩和策、定期的な見直しが含まれます。リスクの一例として、彼らは、今後のポーランドと欧州議会の選挙で、AIが個人をターゲットにしたカスタマイズされたメッセージやデマを利用する可能性が、公正な選挙を大きく脅かす可能性があると指摘しています。
(筆者注:Eva Simon氏とJonathan Day氏がAI法に「法の支配の保護」を含めるべきだと提案したのは、AI技術が今後、社会にいっそう組み込まれる中で、権力者によって誤用・悪用されるリスクがあると彼らが考えているためだと思われます。)
共同研究センターの提言
ヨーロッパ委員会の下部組織である共同研究センターは、AI法の第15条における高リスクAIシステムのサイバーセキュリティ要件に関する政策報告書を執筆しました。その中で、AIにはセキュリティ上の問題があると認めていますが、正しい対策を取れば安全に使えると提案しています。特に、リスクが高くて新しいAI技術を使うAIの場合、新しい安全チェックを追加する必要があるもしれないと述べています。EU AI Actの第9条(リスク管理フレームワーク)に書かれているように、AIシステムの個々のコンポーネントを確認する必要もあるでしょう。これは、AIがAIでない他の部分とどのように相互作用するかを見ることを意味します。また報告書では、もしすべての安全の問題を修正しなければ、あるAIはリスクの高い状況で使用するのに十分安全でないかもしれないとも言っています。
ヨーロッパの国立人権機関ネットワーク(ENNHRI)の提言
ヨーロッパの人権団体(ENNHRI)は、AIを安全に使うための新しいルールについての意見を発表しました。彼らは「高リスクなAIの分類ルール」と「禁止の例外に関するルール」を明確にすべきと求めています。このルールは、AIシステムのプロバイダーだけでなく、国際協力のためにEUの国境を超えて拡大すべきであると強調しています。
また、彼らは、基盤モデル(筆者注:大規模生成AIのようなもの)、一般的および二重目的のAI(筆者注:二重目的というのは、おそらく軍事利用も可能な技術のことだと思います)、および研究活動の規制(筆者注:AI技術の研究活動も規制の対象となるべきという考え?)を含む、堅牢なフレームワークを求めています。さらに、ENNHRIは、国立人権機関との協力による効果的な監督、AIシステムの透明性、説明責任、救済措置の改善を強調しています。また、国家の安全保障、法執行、移民当局による有害で差別的な監視を奨励しないよう求めています。