おはようございます!マネジメントオフィスいまむらの今村です。
冬季休業中の集中講義「ISO42001ざっくり解説」です。今日は附属書Aの管理策についてざっくり説明します(後半)。
スポンサーリンク
これまでの連載記事はこちら
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(はじめに~箇条3)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日はISO42001の概略と、箇条1~3についてざっくり説明します。 もくじ ...
続きを見る
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(箇条4)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日はISO42001の概略と、箇条4「組織の状況」についてざっくり説明します。 ...
続きを見る
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(箇条5)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日は箇条5「リーダーシップ」についてざっくり説明します。 もくじ Toggle ...
続きを見る
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(箇条6)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日は箇条6「計画」についてざっくり説明します。 もくじ Toggle これまで ...
続きを見る
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(箇条7)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日は箇条7「支援」についてざっくり説明します。 もくじ Toggle これまで ...
続きを見る
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(箇条8)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日は箇条8「運用」についてざっくり説明します。 もくじ Toggle これまで ...
続きを見る
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(箇条9)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日は箇条9「パフォーマンス評価」についてざっくり説明します。 もくじ Togg ...
続きを見る
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(箇条10)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日は箇条10「改善」についてざっくり説明します。 もくじ Toggle これま ...
続きを見る
-
【冬季集中講義】ISO/IEC 42001:2023をざっくり読む(管理策・前編)
おはようございます!マネジメントオフィスいまむらの今村です。 冬季休業中の集中講義「ISO42001ざっくり解説」です。今日は附属書Aの管理策についてざっくり説明します(前半)。 もくじ Toggle ...
続きを見る
管理策A.6 AIシステムライフサイクル
AIシステムは、作るところから使い始めて、最後に使わなくなるまで、いろんなステップを踏んでいきます。この「ステップ」が「ライフサイクル」です。「ライフサイクル」に従ってAIシステムの開発からサービス終了までをしっかり管理することで、AIが安全で正しく働くようにします。
まず管理策A.6.1「AIシステム開発のための管理ガイダンス」では、AIを開発するときに大事なことについて述べています。まず、AIシステムを開発作るときに「どんなAIにしたいか」という目標を決めます(A6.1.2)。そして、その目標を守るために「こうやって作ろう!」という計画を立てます(A.6.1.3)。
例えば、「公平なAIにしたい」と管理策6.1.2で決めたら、管理策6.1.3で、その目標を最初から最後まで忘れずに、データを選んだり、AIをテストしたりする計画を作ります。そして、「AIシステムがちゃんと公平性を保っているか」を、ずっとチェックし続けます。
続いて管理策A.6.2「AIシステムのライフサイクル」では、AIシステムを開発・利用する際の各ステップで、どういうことをするのかを定めています。
AIシステムを開発する際に、必要な条件や機能(例えば、システムが1秒間に処理できるデータ量や応答時間、セキュリティ要件、ユーザーインターフェースに関する要件など)を明確にします。既存システムの改善や新しいAIシステムの構築においても、同じように要件と仕様を定めます(A.6.2.2)。これはいわば、何を実現するかを定義し、記録することと言えます。
そしてAIシステムの設計や開発の方法・ツール類についても、あらかじめ決めて文書化しておきます。例えば、このAIシステムでは、機械学習を「教師ありモデル」で行うのか、「ニューラルネットワークによる深層学習」で行うのか、それとも「事前学習とプロンプティング」で行うのかを決めて文書化する、というイメージです(A.6.2.3)。これはいわば、定義した要件や仕様をどう実現するか(設計や技術の選択)を記録することと言えます。
こうして設計・開発されたAIシステムが、期待している通りに動くかをテストします。このテストの方法やテストの成否を判断する基準などを文書化します(A.6.2.4)。例えば、AIが将来の売上高を予測する場合、「予測値と実際の値の一致度合いが90%以上ならば合格」といったイメージです。
続いて、AIの導入配備計画を立てます。AIシステムの開発と運用とでは、開発環境とテスト環境、本番環境が異なるようなケースがあります(例:開発環境では社内サーバー、本番環境ではクラウド)。こうした場合に、環境の違いを考えて、導入配備の準備を行います。そしてその準備ができたかどうかを「リリース基準」として明確にし、基準をクリアしたかどうかの確認を行います(A.6.2.5)。
実際に運用が開始された後も、システムの監視を行います。監視や測定の基準を定め、もし基準を満たさない(問題が起きた)場合は、修理や更新等を行います(A.6.2.6)。
そして設計や運用に関する技術情報を文書化し(A.6.2.7)、システムの使用状況や問題の発生等を記録します(A.6.2.8)
管理策A.7 AIシステム用データ
AIではデータがとても重要です。それは、AIがデータを「学習材料」として学び、そこから賢くなる仕組みだからです。身近な例でいうと、スマホの顔認証システムで、マスクを着用したまま顔認識できる技術はAIを使っています。様々な人の表情や、様々な形状や色のマスクのデータを学習することで、顔の一部がマスクで隠れていても、同一人物だと認識ができるようになります。
管理策A.7では、こうした重要なデータをどう取り扱うかについて述べています。
まず、AIシステムを開発したり改善したりするためには、データをどのように管理するかという方法や流れ(プロセス)を決めて、文書化することが求められています(A.7.2)。データには個人情報などの重要な機密情報が含まれる可能性がありますので、法律や各種のセキュリティ基準に基づいた管理などが必要でしょう。
次に、AIに使うデータを集めるときに、「どのデータをどうやって集めるのか」をしっかり決めて、文書化する必要があります(A.7.3)。
AIに使うデータの品質に関する要件を定義し、文書化することも必要です(A.7.4)。要件には、例えば、データが完全で正確か、最新のものであるかという点や、データに欠損値や重複データがないか、特定の属性(例えば性別や人種)に偏りがないかといった点が、データ品質の要件として考えられます。
データの出どころも重要です。AIシステムで使用されるデータの出所を記録するための手順を定め、文書化する必要があります。(A7.5)
AIは、与えられたデータをもとに学習して賢くなりますが、そのデータが「ぐちゃぐちゃ」だとうまく学べません。例えばデータに「抜けている情報」や「間違った情報」があるような場合ですね。このようなデータを整える方法を定義し、文書化することを求めています(A.7.6)。例えば例えば、欠損値がある場合は平均値で埋めたり、データのバランスが悪い場合は統計的な方法で整えたりするという感じですね。
附属書A.8 AIシステムの利害関係者向け情報
管理策A.8は、AIシステムの利用者や関係者が、システムに伴うリスクやその影響(良い面も悪い面も含む)を理解し、評価できるようにするための情報提供について定めています。
まず、AIシステムの利用者に対して提供すべき情報を決定し、提供することを求めています(A.8.2)。これには技術者向けの詳細な技術情報だけではなく、一般利用者向けにはシステムの使い方やAIが生成したことを明確に伝える情報など、利用者のレベルやニーズに合わせた情報提供が求められます。情報を提供すべきかを決定するために組織が使用する基準は、文書化することが望ましいとされています。
また、利用者などがAIシステムの悪影響(例: 不公平や誤作動)を報告できる仕組みを提供することも求めています(A.8.3)。 例えばWebフォームやサポート窓口を設けて、そこで受け付けた報告に対して対応策を講じるプロセスも整備することが重要ですね。
利用者からの報告を受けることだけではなく、AIシステムで起きた問題(例えば情報漏洩のようなインシデント)をユーザーや関係者に知らせるための仕組みを作る必要もあります(A.8.4)。
問題(インシデント)に関する情報提供だけではなく、それ以外の情報についても、利用者や規制当局に報告すべきものを決めて、通知をする必要があります(A.8.5)。例えば、AIシステムの技術的な文書やリスク評価結果などのほか、規制当局が要求する場合に、当局が求める適切な情報を提出することが該当します。
管理策A.9 AIシステムの利用
これまでの管理策は、どちらかというとAIシステムの開発者やサービス提供者に求められていましたが、管理策A.9は、AIシステムの利用者に適用されるものです。ただ、開発者も管理策A.9に対しては無関係ではありません。利用者が正しくAIシステムを利用できるよう、マニュアルや仕様書を整えたり、サポート体制を整える責任が開発者にはあります。そうした視点も踏まえて、管理策A.9を読んでみてくださいね。
利用者は、AIシステムをどのように責任を持って使うか、そのプロセスを決めて文書化することが求められています(A.9.2)。例えば、AIを使うには、社内の誰がどんな承認がするかを決めたり、AIシステムやサービス提供者を選定する基準(コストやセキュリティレベル、法律の順守レベル等)を決めて評価をしたりするプロセスが該当します。
AIシステムをどう使うべきか、その目標を決めて文書化することも求められています(A.9.3)。目標は、例えば、公平性(誰にとっても偏らない結果を出す)、説明可能性(AIがどうしてその判断をしたのかがわかる)、安全性と信頼性(エラーや誤作動が少ない)ことなどがあるでしょう。そしてその目標を達成するために、監視をして、必要であれば修正をしたり社内にエスカレーションするなどの仕組みを整備することも重要です。
AIシステムが、そのAIシステムが意図された用途に従って正しく使われているかを確認することも必要です(A.9.4)。例えば、システムのマニュアルや説明書に書かれた使い方に従って運用されているか、ということですね。 AIが、画像を分析して製品の品質チェックを行うシステムとして設計されているにも関わらず。このAIを使って、人の顔認証や性別の判断など、製品品質以外の分析に使うようなことのないように、ログや記録を取ったりして運用を監視することが該当します。
附属書A.10 第三者および顧客との関係
AIシステムのライフサイクルに第三者(パートナー、サプライヤーなど)や顧客が関与する場合に、責任とリスクを明確にし、適切に分担することを求めています。これにより、関係者全体がAIシステムの安全性と透明性を確保しながら、適切に役割を果たすことが可能となります。
まず、AIシステムのライフサイクルに関わるすべての関係者(自社、パートナー、サプライヤー、顧客など)の責任を明確にします(A.10.2)。例えば、AIシステムのサプライヤーは、システムの設計やアルゴリズムの正確性、データの品質やプライバシー保護に責任を持つ一方で、利用者はAIシステムを意図された用途で適切に利用する責任を負います。
また、AIシステムのサービス提供者から提供されるサービスや製品(例: データセット、アルゴリズム、AIシステムそのもの)が、自社の責任あるAIシステム開発や利用の方針に合致しているか確認することも重要です(A.10.3)。例えば、サプライヤー選定時には、その信頼性や品質を評価する基準を設け、基準に基づいて評価する仕組みを構築します。もし、提供されたシステムや部品が意図した通りに機能しない場合、是正措置を求めたり、必要に応じてサプライヤーと協力して問題を解決することも求められます。
さらに、AIシステムを顧客に提供する際には、顧客の期待やニーズを理解し、それに応じた対応を行う仕組みを作ることが求められます(A.10.4)。例えば、顧客がAIシステムをどのように使用するかを把握し、そのリスクを特定して説明することが必要です。また、AIシステムが使用できる範囲や制限(例: 特定の用途に限定されること)を顧客に明確に伝えることも重要です。加えて、顧客が契約や使用条件に基づいてAIシステムを適切に使用できるよう、教育やサポートを提供する仕組みを整える必要があります。