おはようございます!マネジメントオフィスいまむらの今村敦剛です。
2023年12月12日、欧州委員会はEU AI法に関する質疑応答のWebサイトを公開しました。全部で28の質疑応答が書かれていますが、これを読むとEU AI法の概要を理解しやすいです。主だった質疑をいくつか紹介します。
欧州委員会はEU AI法に関する質疑応答はこちら(英語)
1.人工知能(AI)の使用をなぜ規制する必要があるのですか?
医療の向上から教育の改善に至るまで、人工知能(AI)が私たちの社会にもたらす潜在的な利益は多岐にわたります。AIの技術開発が急速に進む中、EUはこれらの機会を活用するために一丸となって行動することを決定しました。
EUのAI法案は、世界初の包括的なAI法です。この法案は、健康、安全、基本的人権へのリスクに対処することを目指しています。また、この規制は民主主義、法の支配、環境を保護することも目的としています。
ほとんどのAIシステムは低リスクまたはリスクがないと考えられますが、特定のAIシステムは望ましくない結果を避けるために対処する必要があるリスクを生み出します。
例えば、多くのアルゴリズムの不透明性は不確実性を生み出し、既存の安全性や基本的人権に関する法律の効果的な執行を妨げる可能性があります。これらの課題に対応するため、利益とリスクが適切に対処されるAIシステムの内部市場がうまく機能することを保証するために、立法行動が必要でした。
これには、生体認識システムや、採用、教育、医療、法執行などの分野で重要な個人的な利益に関わるAIの決定などのアプリケーションが含まれます。
最近のAIの進歩は、さらに強力な生成AIを生み出しました。多くのAIシステムに統合されているいわゆる「汎用AIモデル」は、規制されないと経済や社会にとって重要すぎるものになりつつあります。潜在的なシステムリスクを考慮し、EUは効果的なルールと監督を設けています。
ぼくからも補足をします。例えば生体認証システムにAIを組み込んだ場合、プライバシーの侵害やご認識による誤った身元特定や不当な逮捕につながる恐れがあります。生体認識システムは、個人の顔、指紋、声紋などの個人データを収集し使用します。これらのデータが不適切に管理されたり、無断で共有されたりすると、個人のプライバシーが侵害されるリスクがあるのは想像できますよね。また、AIによる生体認識システムは、特に顔認識技術で誤認識を起こすことがあります。特に外国人の顔データがあまりない場合、AIがその外国人(民族)を正しく学習できずに、不当な逮捕をしてしまいかねません。
こうしたリスクがあり、個人の健康、安全、基本的人権を脅かすかもしれないので、AIの使用を規制する、ということですね。
2.新しいAI規則はどのようなリスクに対処しますか?
AIシステムの導入には、社会的利益、経済成長の促進、EUの革新と世界競争力の強化といった強い可能性があります。しかし、特定のケースでは、特定のAIシステムの特有の特性が、ユーザーの安全性と基本的人権に関連する新たなリスクを生み出すことがあります。広く使用されているいくつかの強力なAIモデルは、システム全体のリスクをもたらす可能性さえあります。
これは企業に法的不確実性をもたらし、信頼の欠如により、ビジネスや市民によるAI技術の導入が遅れる可能性があります。国家当局によるばらばらな規制対応は、内部市場の分断化を引き起こすリスクがあります。
Q&Aには書かれていませんが、EU AI法におけるリスクは、具体的には以下のように分類されています。
3.AI法案は誰に適用されますか?
この法的枠組みは、EU内外の公共および民間の主体に適用されます。これは、AIシステムがEU市場に投入されている場合、またはその使用がEUに居住する人々に影響を及ぼす場合に限ります。
これには、高リスクAIシステムの提供者(例:履歴書スクリーニングツールの開発者)と展開者(例:このスクリーニングツールを購入する銀行)の両方が含まれます。AIシステムの輸入者も、外国の提供者が適切な適合性評価手順をすでに実施しており、欧州適合(CE)マーキングが付され、必要な文書や使用説明書が付属していることを保証しなければなりません。
さらに、大規模な生成AIモデルを含む汎用AIモデルの提供者には、特定の義務が予定されています。
無料およびオープンソースモデルの提供者は、これらの義務のほとんどから免除されます。この免除は、システム全体のリスクを持つ汎用AIモデルの提供者に対する義務を含みません。
義務は、市場へのリリースに先行する研究、開発、およびプロトタイピング活動には適用されず、この規制は軍事、防衛、または国家安全保障の目的でのみ使用されるAIシステムには適用されません。これは、これらの活動を行う主体のタイプに関わらずです。
日本企業も、AIを使ったソフトウェア(リスクのあるもの)を開発し、それをEU市場に投入する場合は、EU AI法の適用を受けます。
上記以外の質問
上記以外の質問は以下の通りです。詳しくは欧州委員会のページを見て、機械翻訳などでご確認ください。
4) リスクカテゴリーとは何ですか?
5) AIシステムが高リスクかどうかはどうやって知れますか?
6) 高リスクAIシステムの提供者にはどのような義務がありますか
7) 附属書IIIで定義されている高リスクの使用例は何ですか?
8) 一般目的のAIモデルはどのように規制されていますか?
9) システムリスクを持つGPAIに対して10^25 FLOPが適切な閾値である理由は何ですか?
10) AI法案は将来にわたって有効ですか?
11) AI法案は生体認識をどのように規制しますか?
12) なぜ遠隔生体認識に特別なルールが必要なのですか?
13) これらのルールは基本的な権利をどのように保護しますか?
14) 基本的な権利への影響評価とは何ですか? この評価は誰が、いつ行う必要がありますか?
15) この規制はAIの人種的および性別的偏見にどのように対処しますか?
16) AI法案はいつ完全に適用されますか?
17) AI法案はどのように施行されますか?
18) なぜ欧州人工知能委員会が必要で、何をするのですか?
19) 欧州AI局の任務は何ですか?
20) AI委員会、AI局、諮問フォーラム、独立専門家の科学パネルの違いは何ですか?
21) 違反に対する罰則は何ですか?
22) ルール違反によって影響を受けた個人は何をすることができますか?
23) 高リスクAIシステムの自発的な行動規範はどのように機能しますか?
24) 一般目的AIモデルのための実践コードはどのように機能しますか?
25) AI法案には環境保護および持続可能性に関する規定が含まれていますか?
26) 新しいルールはイノベーションをどのようにサポートしますか?
27) AI法案以外で、EUはどのようにAIのイノベーションを促進しサポートしますか?
28) EUのアプローチの国際的な次元とは何ですか?