ISO42001:2023 6.1.2 AIリスクは影響と可能性の2軸で評価する(1)

おはようございます!マネジメントオフィスいまむらの今村敦剛です。

ISO42001各箇条解説シリーズ、今回は箇条6.1.2「AIリスク評価」を解説をします。とっつきにくい「リスク分析」についての説明ですが、具体例を使いながら解説したいと思います。

Loading table of contents...

動画でも解説しています(無料・登録不要)

箇条6.1.2の位置づけ

まず、今日説明する箇条6.1.2の位置づけです。

箇条4で、自社を取り巻く経営環境(課題と利害関係者の期待とニーズ)を大局から分析しました。そして箇条5では、AIを扱う際に踏まえるべき大まかな方向性(方針)を決めるなど、トップ(経営者等)が果たすべき役割を明確にしました。

そして箇条6「計画」では、その方針をさらに具体化します。前回の箇条6.1.1で洗い出したAIに関するリスクに対し、今回説明をする箇条6.1.2では、それらのリスクが「いったいどれくらい危ないのか?」、その大きさを測るための「物差し」とその「使い方」を定めています。

ISO 42001におけるリスク管理

もう少し詳しく説明しましょう。この図はISO 42001におけるリスク管理の全体像です。

箇条6.1.1で「AIに関するリスクには、こういうものがありそうだ」と洗い出しました。洗い出したリスクには、AIマネジメントシステムに関するリスク(仕組み上のリスク)と、AIシステムに関する個別のリスクの2種類がありますが、その両方を特定しました。

そして今回の箇条6.1.2で、そのリスクについて、発生の可能性や影響の大きさを客観的に分析します。そのうえで、リスクが自社にとって許容できるものかを判断し、もし許容できない場合は、どのリスクから優先的に対策すべきかを評価します。こうして分析・評価されたリスクに対し、どう具体的に対処するのかは、その後の箇条6.1.3で計画されます。

リスク分析・評価を身近な例で例えると

リスクの分析・評価というと難しそうですが、実は私達は毎日、天気予報をみて無意識にこれをやっています。天気予報で「降水確率80%。所によって雷を伴う非常に強い雨が降るでしょう」という情報があれば、「これは長傘が必須だし、外出は少し考えよう」と思いますよね。一方で、「降水確率は30%。小雨の予報」だったら、折りたたみ傘でもいいかな、と判断します。

AIのリスクもこれと基本的には同じです。「なんとなく危なそう」ではなく、リスクに対する危険度を客観的に評価しましょう、というのが、この箇条6.1.2でやることです。

なお復習になりますが、例えば、AIに関するリスクには以下のようなものがあります。

  • リスク 学習データの偏りとバイアス
    • 特定の属性(性別、人種など)に偏ったデータで学習させた結果、AIが差別的・不公平な判断を下してしまう。これにより、企業の評判が低下し、訴訟に発展する可能性がある。
  • ハルシネーション(もっともらしい嘘の出力)
    • AIが事実に基づかない情報を生成し、ユーザーに誤解や損害を与える。特に医療や金融などの専門分野では深刻な問題になりうる。
  • 堅牢性の欠如
    • 予期しない入力(エッジケース)に対して、AIが暴走したり、機能停止したりする。自動運転AIが稀な道路状況を認識できない、といったケースが該当する。
  • 敵対的攻撃(Adversarial Attack)
    • AIの判断を誤らせるような特殊なデータを入力され、AIが意図しない動作をしてしまう。例えば、画像認識AIに僅かなノイズを加えることで、全く違う物体として誤認識させることが可能。
  • モデルの窃取
    • 開発したAIモデル(学習済みパラメータなど)が盗まれ、競合他社に利用されたり、不正に公開されたりする。
  • 説明責任の欠如
    • AIがなぜその結論に至ったのかを説明できない(ブラックボックス問題)。融資審査などで不利益な判断を下されたユーザーに対して、理由を説明できず、法的・倫理的な問題に発展する。
  • 知的財産権の侵害
    • インターネット上から収集したデータに著作物が含まれており、それを学習したAIの生成物が著作権を侵害してしまうリスク。
  • 意図しない目的での悪用
    • 開発したAIが、フェイクニュースの生成、サイバー攻撃、詐欺など、開発者の意図しない反社会的な目的に利用されてしまう。
この記事を書いた人
代表取締役 今村 敦剛

中小企業診断士/審査員(ISO9001, 14001, 45001)/日本心理学会認定心理士