おはようございます!マネジメントオフィスいまむらの今村敦剛です。
EUのAI規制法案である"EU AI Act"に関して、9/23時点での最新情報を、かいつまんでお伝えします。(情報源は、The EU AI Act Newsletter #36です)
AIシステムのリスク判定に関する条文への反対意見
BEUCやEDRi、Access Nowら、115の市民団体は、AI法案の問題点を指摘し、それを修正するように主張しています。どういう問題点だと言っているかというと、AIシステムの開発者自らが、自分たちのシステムがEU AI法案のいう「高リスク」かどうかを決める権限を持っている点です。
もともとヨーロッパ委員会が定めたEU AI法案は、附属書(Annex)IIIにリストされている、特定の目的に基づいたAIシステムを「高リスク」と定めていました。しかし評議会とヨーロッパ議会によって修正された法案では、AI開発者にシステムのリスクレベルを主観的に評価することを認めています。これに対して市民団体は、修正法案を廃止し、もともとのヨーロッパ委員会が定めたリスク分類プロセスを復元するよう求めています。
人権団体とアムステルダム大学によるEU AI法案に対するの共同提言
7月に、人権団体であるAlgorithmWatch、とアムステルダム大学のAI・Media & Democracy Labは、学者や市民団体の代表者を交えて、一般的な目的のAI(GPAI)と生成的AI(GenAI)に関するワークショップを共同で開催しました。このワークショップでは、EUの政策立案者へ提言がまとめられました。大まかには次のような提言でした。
- 言葉の意味を明確にすること。
- AIの使用による権利の侵害や社会的なリスクを避けること。
- AIシステムが与える影響に対して誰が責任を追うかを明確にすること
- 公正な方法でAIの影響を監督すること
- 他の法律(差別禁止法や個人情報保護法、デジタル市場規制など)と連携・調整すること
Brussels Privacy Hubの要望
Brussels Privacy Hub(ブリュッセル自由大学内の組織)は、110人以上の学者とともに、EU AI法案に基本的な権利の影響評価要件を含めるよう求めました。Brussels Privacy Hubは、EU AI法案の当初案(ヨーロッパ議会のバージョン)が維持されるよう求めており、特に以下の側面が確保されるよう求めています。
- AIが基本的な権利に及ぼす影響の評価に関する明確な基準
- 影響評価の結果についての公の意味のある要約を通じての透明性
- 脆弱な立場にある特に影響を受けるエンドユーザーの参加
- 影響評価プロセスおよび/または監査メカニズムにおける独立した公的機関の関与。
Matija Franklin(UCLのCausal Cognition Labの博士課程の学生)、Philip Tomei(Pax Machinaの政策リーダー)、Rebecca Gorman(起業家)は、oecd.aiのウェブサイトに、AI法案へのEUの最新の修正が明確さと十分な科学的支持の両方を欠いていると主張する記事を書きました。著者らによれば、主な問題は、'personality traits'(性格の特性)という中心的な概念の曖昧さであり、明確な定義なしで何度も言及されています。
法の効果を高めるために、彼らは、心理学とAIのベストプラクティスに基づいて「性格の特性」とは何なのか、技術的な定義を明確にすることを提案しています。さらに彼らは、個人の意思決定や信念に影響を与える隠れた試みをカバーするための「映像技術」のより包括的な定義を提案しています。操作的なAIを定義するために、AIシステムが人間の行動を意図的に変えるために秘密裏に行動するかどうかを考慮することを提案しています。(筆者注:よくわかりませんが、おそらく、EU AI法案で禁止されるAIとして「サブリミナルな技法」というのがありますが、それの定義を明確にしなさいと言っているのだと思います)
また、大規模なAIシステムがそれをターゲットとして行動に影響を与えることがよくあるため、法はユーザー選好(user preference)も対象とすべきと主張しています。(筆者注:これもよくわかりませんが、ユーザーの好みにあった情報や広告などをAIが垂れ流すことによるリスク(エコーチャンバー等)にも対処しなさい、と言っていると思われます)
DOTヨーロッパの意見書
DOTヨーロッパ(ヨーロッパの主要なインターネット企業をまとめる組織)は、ヨーロッパ議会および評議会の修正案に対する意見書を公表しました。かいつまんでいうと、次のようなことを求めています。
この論文には、以下の推薦事項が含まれています:1) 第28条を明確にし、規定が実務で実行可能であることを確認する。2) EPが採用した技術の最先端に関する言語を規則に反映させる。3) 法治、民主主義、エネルギーに関する基盤モデルの義務を排除する。4) GPAI/基盤モデルを規制する際に最も高いリスクの用途に焦点を当てる評議会の目的を支持する。5) 第4条(b)(5)の情報共有に関する評議会の文言を検討する。この論文には、さらに多くの推薦事項が掲載されています。
- 第28条をもっと明確にする。
- 欧州議会が採用した「最新の技術」についての言語をルールに入れる。
- 法治、民主主義、エネルギーに関する基盤モデル(筆者注:Open AIやgoogleなどのこと?)の義務を外す。
- GPAI(汎用AI)や基盤モデル(筆者注:Open AIやgoogleなどのこと?)に関するルールは、最も高いリスクに焦点を当てる。
- 第4条(b)(5)の情報共有に関する評議会の文言を検討する。
ヘルシンキ大学法学部の教授の主張
Susanna Lindroos-Hovinheimo(ヘルシンキ大学法学部の教授)は、The European Law Blogに、EU AI法案の子供関連の規定の要約を書きました。著者は、法が基本的な権利を考慮するように進化している一方で、子供の保護のための特定の規定が欠けていると述べています。
所感
AIが人々の権利に対して与える影響について、欧州では議論が深まっている印象があります。一方、日本では、まだここまで議論が進んでいないように思えますが、どうでしょうか。(ぼうが知らないだけかもしれませんけど)
AIが人々の権利に与える影響には、多くの側面があります。例えばですが、
- プライバシーとデータの保護:AIシステムは、ユーザーの行動や嗜好を分析するために大量のデータを収集します。不適切なデータ管理や不正確なデータ分析は、個人のプライバシーを侵害するリスクがあります。
- 偏見と差別:AIシステムが偏見を持ったデータセットでトレーニングされると、それは差別的な決定を下す可能性があります。これは、特定の人々やグループに不利益をもたらす可能性があります。
- 情報の真実性:汎用AI技術の進歩により、偽の画像や動画(ディープフェイクとも呼ばれる)を作成することが容易になっています。これにより、真実と虚構を区別することが困難になり、情報の信頼性が低下する恐れがあります。
- 雇用と労働の権利:一部の仕事やタスクがAIやロボットによって自動化されることで、雇用の機会が失われる可能性があります。
- 自由と監視:AIを使用した監視システムは、公共の場所やデジタル空間での監視を強化することができます。これにより、個人の自由や表現の自由が制限される恐れがあります。
- アクセス権:AIの利益や技術が一部の企業や国に集中していると、技術の利点が一部の人々やグループだけに恩恵をもたらすことになり、不平等が生じる可能性があります。
- 意思決定への透明性:AIが重要な決定を下す場合、どのようにその決定が下されたかの透明性が不足すると、個人の権利を守ることが困難になります。
これらはAIが人々の権利に与える影響の一部に過ぎませんが、こうして改めて一覧形式で見ると、AIは我々の権利に大きな影響を及ぼすことがわかります。日本でもこうした議論が深まればいいのですが。