おはようございます!マネジメントオフィスいまむらの今村敦剛です。
5月22日、第9回AI戦略会議が開催されました。日本におけるAIの規制・制度についての具体的な討議が行われています。これまでのソフトロー一辺倒と思われていた議論から、多少変化が見えました。
スポンサーリンク
AI戦略会議(第9回)の資料はこちら
AI戦略チームの「AI制度に関する考え方」について
AI戦略チーム(関係省庁横断的な審議官・課長級のチーム)を編成して、AI制度に関する考え方をまとめています。その資料が、AI戦略会議(第9回)に提出されました。
簡単に言うと、日本は欧州やアメリカと異なり、AIの規制については「ソフトロー志向」であることが、これまで同様(2023年12月21日に公開された「AI事業者ガイドライン案」と同様)に表明されたという印象です。
ソフトローとは、法的拘束力のないガイドラインのようなものです。今年成立した欧州のAI規制法(AI Act)はハードローと言われており、こちらは強制力や罰則が伴う厳しいルールを定めています。日本はこのソフトロー路線にこだわっている印象があります。(アメリカはハードローとソフトローの折衷のようなスタンスです)。なぜ日本がソフトロー志向なのかというと、「細かな行為義務を規定する「ルールベース」の規制を行うと、イノベーションを阻害する可能性がある」と、この資料のP6で述べられています。
ただ資料のP11を読むと
我が国においても、セキュリティリスクやシステミックリスク等の防止、インシデント対応、広範な提供・利用段階でのリスク対応の難しさなどを考慮し、国民の安全・安心の観点から、AI事業者ガイドライン等のソフトローを補完する法制度の要否の検討が考えられる。
と書いていることから、ハードローも完全に否定しているわけではないこともわかります(というか、どっちつかずの玉虫色のレポートのような印象がありますよね)。これまでソフトロー一辺倒だった日本が、ハードローの可能性についても言及したという点では新鮮さがありますが、一方では「実はまだ何の方向性も固まっていない」とも理解ができそうです。
圧倒的に少ない予算
東京大学の松尾豊先生が提出した資料によると、政府のAI関連予算は1640.9億円(昨年度比44%増)だということです。ちなみにChatGPTを開発したOpenAIは、今年の2月の資金調達ラウンドで800億ドル(約12.5兆円)を調達したというのですから桁違いであることがわかります。もちろん規制をする側の政府と、大規模生成AI開発企業の資金調達額は単純に額面では比較はできませんけどね。このあたりは次年度以降にどれだけ予算化されるかが注目されます。(安全保障関係に予算を費やしている現状で、どこまでできるかはわかりませんが)