おはようございます!マネジメントオフィスいまむらの今村敦剛です。
ISO42001各箇条解説シリーズ、今回は箇条6.1.2「AIリスク評価」を解説をします。とっつきにくい「リスク分析」についての説明ですが、具体例を使いながら解説したいと思います。
動画でも解説しています(無料・登録不要)
箇条6.1.2の位置づけ
まず、今日説明する箇条6.1.2の位置づけです。
箇条4で、自社を取り巻く経営環境(課題と利害関係者の期待とニーズ)を大局から分析しました。そして箇条5では、AIを扱う際に踏まえるべき大まかな方向性(方針)を決めるなど、トップ(経営者等)が果たすべき役割を明確にしました。
そして箇条6「計画」では、その方針をさらに具体化します。前回の箇条6.1.1で洗い出したAIに関するリスクに対し、今回説明をする箇条6.1.2では、それらのリスクが「いったいどれくらい危ないのか?」、その大きさを測るための「物差し」とその「使い方」を定めています。
ISO 42001におけるリスク管理
もう少し詳しく説明しましょう。この図はISO 42001におけるリスク管理の全体像です。

箇条6.1.1で「AIに関するリスクには、こういうものがありそうだ」と洗い出しました。洗い出したリスクには、AIマネジメントシステムに関するリスク(仕組み上のリスク)と、AIシステムに関する個別のリスクの2種類がありますが、その両方を特定しました。
そして今回の箇条6.1.2で、そのリスクについて、発生の可能性や影響の大きさを客観的に分析します。そのうえで、リスクが自社にとって許容できるものかを判断し、もし許容できない場合は、どのリスクから優先的に対策すべきかを評価します。こうして分析・評価されたリスクに対し、どう具体的に対処するのかは、その後の箇条6.1.3で計画されます。
リスク分析・評価を身近な例で例えると
リスクの分析・評価というと難しそうですが、実は私達は毎日、天気予報をみて無意識にこれをやっています。天気予報で「降水確率80%。所によって雷を伴う非常に強い雨が降るでしょう」という情報があれば、「これは長傘が必須だし、外出は少し考えよう」と思いますよね。一方で、「降水確率は30%。小雨の予報」だったら、折りたたみ傘でもいいかな、と判断します。
AIのリスクもこれと基本的には同じです。「なんとなく危なそう」ではなく、リスクに対する危険度を客観的に評価しましょう、というのが、この箇条6.1.2でやることです。
なお復習になりますが、例えば、AIに関するリスクには以下のようなものがあります。
- リスク 学習データの偏りとバイアス
- 特定の属性(性別、人種など)に偏ったデータで学習させた結果、AIが差別的・不公平な判断を下してしまう。これにより、企業の評判が低下し、訴訟に発展する可能性がある。
- ハルシネーション(もっともらしい嘘の出力)
- AIが事実に基づかない情報を生成し、ユーザーに誤解や損害を与える。特に医療や金融などの専門分野では深刻な問題になりうる。
- 堅牢性の欠如
- 予期しない入力(エッジケース)に対して、AIが暴走したり、機能停止したりする。自動運転AIが稀な道路状況を認識できない、といったケースが該当する。
- 敵対的攻撃(Adversarial Attack)
- AIの判断を誤らせるような特殊なデータを入力され、AIが意図しない動作をしてしまう。例えば、画像認識AIに僅かなノイズを加えることで、全く違う物体として誤認識させることが可能。
- モデルの窃取
- 開発したAIモデル(学習済みパラメータなど)が盗まれ、競合他社に利用されたり、不正に公開されたりする。
- 説明責任の欠如
- AIがなぜその結論に至ったのかを説明できない(ブラックボックス問題)。融資審査などで不利益な判断を下されたユーザーに対して、理由を説明できず、法的・倫理的な問題に発展する。
- 知的財産権の侵害
- インターネット上から収集したデータに著作物が含まれており、それを学習したAIの生成物が著作権を侵害してしまうリスク。
- 意図しない目的での悪用
- 開発したAIが、フェイクニュースの生成、サイバー攻撃、詐欺など、開発者の意図しない反社会的な目的に利用されてしまう。
