おはようございます!マネジメントオフィスいまむらの今村敦剛です。
EUのAI規制法案である"EU AI Act"に関して、6/25時点での最新情報を、かいつまんでお伝えします。(情報源は、The EU AI Act Newsletter #56です)。
欧州議会議員が実践コード(AI技術に関するルールやガイドライン)の策定に利害関係者を巻き込むように提案
アメリカのニュースメディアであるPOLITICOは、Brando Benifei、Svenja Hahn、Katerina Konečná、Sergey Lagodinsky、Kim Van Sparrentak、Axel Voss、およびKosma Złotowskiといった欧州議会議員によるレターを公開しました。
このレターでは、EUのAIオフィスに対し、強力なAIモデルのルール作成に市民を参加させるよう促しています。(このAIオフィスとは、①EU AI規制法の実施(特に汎用AIに関して)、②信頼できるAIの開発と利用の促進、③国際協力の促進の3点を中心に行う機関です。)
これら議員は、委員会が当初、AIを使ったソフトウェア等の開発企業のみを関与させる計画に懸念を表明していました。このやり方は、AI技術に関するルールやガイドラインを作る上で支障となる可能性がある(開発企業に有利なルールができる)と主張しています。議員たちは、企業だけではなく、市民、学界、その他の利害関係者からの多様な声を含めることの重要性を強調しています。
そうでなければ、倫理と信頼性の確保やイノベーションの促進といった、EUがそもそも目指している法の目的に反すると警告しています。
欧州委員会も、、こうしたルールづくりに市民を含むさまざまな利害関係者を関与させる方向性を示していますが、詳細はまだ不明です。
セクター別ルールに関連する高リスク製品の定義方法
フランスのメディアであるEuractivによると、欧州委員会は、AIを使ったインターネット接続のセキュリティ関連機器(たとえばスマートホームのデバイス)や緊急サービス(たとえば緊急通報システム)を「高リスク」と分類する予定です。
これは無線機器指令(RED)とAI法の相互作用に関する文書で明らかにされているようです。分類基準には、既存の法律でカバーされる安全コンポーネントを持ち、コンプライアンスのために第三者評価を必要とすることが含まれます。REDの下で自己評価が許可されている場合でも、AIベースのサイバーセキュリティコンポーネントは依然として高リスクと見なされます。
このやり方、医療機器、航空、重機械など、AI法に関連する調和された法律でカバーされる他のセクターにも拡大する可能性があります。