おはようございます!マネジメントオフィスいまむらの今村敦剛です。
2月28日に政府はAI法案を閣議決定し、衆議院へ提出をしました。これとあわせて、法案が一般に公開をされています。国会審議中なので最終的には法の内容が変わる可能性もありますが、この法案についてみていきたいと思います。
スポンサーリンク
AI法案(衆議院ホームページより)
法律の構造
法の構造は、以下のようになっています。
第1章 | 総則 | 第1条~第10条 | 基本理念・関係者の責務 |
第2章 | 基本的施策 | 第11条~第17条 | 研究・人材・国際協力等の基本施策 |
第3章 | 人工知能基本計画 | 第18条 | 政府による基本計画策定の枠組み |
第4章 | 人工知能戦略本部 | 第19条~第28条 | 政府による人工知能戦略本部の設置 |
附則 | 第1条~第4条 | 本則に付随する事項(施行期日等) |
AI法案を一言でいうと?
この法律は、AIの研究開発や活用について、国がどう進めていくかの「基本的な考え方や仕組み」をまとめたものです。この法律では、大まかな点で何をやるかという方向性は示されていますが、「具体的にどうやるか」「どこまでやるか」といった具体的な手続きまでは書かれていません。義務がある条文も一部にとどまり、基本的には理念法としての性格が強い法律です。今後、政令としてより詳細なルールが出てくると見られますが、この法律自体には罰則や直接的な制裁についての記載はありません。
事業者の「義務」は一つだけ
事業者(AI開発・提供・利用企業)の義務は、この法案に一つだけあります。それは、国や地方公共団体の取り組みに「協力しなければならない」と、法案第7条に明記されています。これは義務性の高い表現です。なお、AI研究開発機関や国民に対しては「(行政機関へ)協力するよう務めることとする」という表現に留まっています。
どういう協力に応じなければならないのかはこの法案からはあまりはっきりは読み取れませんが、例えば不適切利用の事案(AIシステムの学習データセットに不適切な方法で入手した個人情報が使われていたことが事件化したなど)が発生したときに、国はその事案を分析し、対策を検討することになっています(法案第16条)。そのような分析のために、関係する事業者は、情報提供という形で(同じく法案第16条)、行政機関に協力をするようなケースが考えられるかもしれません。
AIリスクへの対処(罰則等)がないことが問題?
このAI法案が提出された後、報道各紙の一部では、AIリスクへの対処(罰則等)がないことを問題視する社説がありました。例えば3月18日の京都新聞社説では「問題なのは、罰則を盛り込まなかった点である。」と批判。また、3月9日の読売新聞社説では「政府と与野党は、この法案でAIの悪用を規制できるのか、国会で議論を深める必要がある。法案を修正して実効性を高めていくことも選択肢とすべきだ。」と主張。
確かにこの法案では罰則や直接的な制裁についての記載はありません。ただ、他国のAI関連法律のすべてで罰則規程が設けられているわけではありません。EUや韓国では罰則規定のある包括的な法律が制定されましたが、アメリカではそのような包括的な法律はありません。また、日本ではAIの利活用に関して全く罰則がないかというとそうではなく、既存の法律(例えば著作権法や個人情報保護法)において制裁を課すという建付けになっています。リスクへの対処はソフトロー(ガイドライン)である「AI事業者ガイドライン」などに定められているので、日本におけるAIに関する法体系は、既存の法律やガイドラインを含めた包括的なものであると言えそうです。その全体を見たときには、必ずしもAIリスクへの対処(罰則等)がないことが問題、とは言えないのではないかと思います。
ただ、EUなどで問題となっているハイリスクAIシステム等に対する規制(これについては現行法では必ずしも規制ができない)については、日本でもどこかの時点で検討せざるを得ないのではないかと思います。そうでないと、日本がそうしたAIシステム開発の「抜け穴国家」となり、世界の安定にとってのリスクになる恐れがあります。
このAI法案を読んでいても、国がAIを活用して経済を浮揚させよう(あわよくば世界のAIリーダー国になろう)という意図が見て取れます。そうした考えも必要ではありますが、そこに固執するのではなく、世界の趨勢を見ながら、必要に応じて規制を強化していく選択肢も排除しないでほしいと思います。なお、一応このAI法案は、そうした選択肢も排除はしていないと個人的に解釈をしています。