補助金に関連する当ページの情報について
当ページの記載事項に基づいてすべてを判断せず、必ず公募要領を確認してください。当社ページの見解に従った結果、不採択となった場合も、当社は責任を負いかねます。このページの情報や見解は、予告なしに変更することがあります。

ブログ プライバシー・セキュリティ

「若者の早期退職をAIが分析」をEU AI Actの観点から考える

https://imamura-net.com

おはようございます!マネジメントオフィスいまむらの今村敦剛です。

名古屋大学大学院で「若者の早期退職をAIが分析」したというニュースがありました。AIを使ったこのような研究やサービスが、EU AI Actでどう扱われているかについて考察しました。

スポンサーリンク

NHK記事「若者の早期退職をAIが分析 名大大学院などが研究」

名古屋大学のある研究室で、企業の採用試験の適性検査データをAIで分析し、早期退職する若者を予測に成功したそうです。特に「上司をけなす」や「同僚の好意を受け入れない」などの特性を持つ人が早期退職の傾向にあることが判明したのだとか。

AIを使った雇用、労働者管理のサービス提供は「高リスク」に分類される

今回の研究が、もし将来的に、雇用や労働者管理サービスとして、欧州に拠点を持つ企業に提供されるような場合は、EU AI Actに基づいて「高リスク」のサービスだとみなされる可能性が濃厚です。

例えばEU AI Actの修正案(amendments)のrecital 36では、以下のように書いています。(日本語訳はChat GPT-4による機械翻訳)

雇用、労働者管理、自営業へのアクセスに使用されるAIシステムは、特に人材の採用・選定、昇進や解雇の決定、個人の行動、特性、生体データに基づいた個別の業務割り当て、労働関連の契約関係における監視や評価などにおいて、将来のキャリア展望、生計、労働者の権利に著しい影響を及ぼす可能性があるため、高リスクとして分類されるべきです。

基本的に、人事労務分野におけるAIの使用は、高リスクとして扱われます。これはぼくの推測ですが、人事労務分野におけるAI使用は、労働の統計的差別につながるからではないかと思います。労働の統計的差別とは、統計に基づいた合理的な判断によって、学歴や性別などの差別が生じるというものです。(例えば統計的には、女性の離職率は男性の離職率より高いのですが、それをそのまま学習したAIを、人間がなんの考慮もなく利用すると、女性を採用しない方向で意思決定されてしまう恐れがあります)

高リスクとして扱われるAIサービスは、禁止はされません。しかしそのようなAIサービスの提供者などは、多くの義務を負います。例えば総務省の資料によると、高リスクのAIサービスにまつわる義務は下記の通りです。

https://www.soumu.go.jp/main_content/000826707.pdfより引用

実はこのようなサービスはすでに日本でも存在します。以下のサイトは、NTTのグループ企業による退職予測AIサービスです。このようなサービスが欧州で展開された場合には、EU AI Actにおける高リスクカテゴリーの規制を受ける対象となりえるでしょう。

学術的な研究ならば問題がないのか?

ただ、高リスクとして規制されるのは、それがサービスとして上市される場合です。今回の記事は、あくまでも大学の研究室での研究であり、サービスの提供ではありません。

これについてはEU AI Actの修正案(amendments)のrecital 16に次のような記述があります。recital 16は、人の行動を変えたり、心や体に害を及ぼす恐れのあるAI技術について触れていますが、そうしたAI技術を学術的な研究をする場合の制約について下記の通り述べています。(日本語訳はChat GPT-4による機械翻訳)

そのようなAIシステムに関する正当な目的の研究は、人間と機械の関係でのAIシステムの使用が自然人に害を及ぼすものでなく、そしてその研究が認識された科学研究のための倫理的基準に従って行われ、さらに被験者や、該当する場合はその法定代理人からの明確な同意の基盤上で行われる場合、禁止によって妨げられるべきではない。

もちろん、今回のような退職予測が「人の行動を変えたり、心や体に害を及ぼす恐れのあるAI技術」であるかどうかは議論の余地があるでしょう。(こうした予測によって、採用予定だった人の内定を取り消す、ということが起きたならば、それは人の行動を変えることに繋がるでしょうけど)

そうした「人の行動を変えたり、心や体に害を及ぼす恐れのあるAI技術」を使った研究を一律に禁じているわけではありませんが、人に害を及ぼさないことはもちろん、倫理委員会などの審査を経たうえで、被験者の同意などが必要だと述べていますので、研究においてもこうしたハードルをクリアする必要があるでしょう。(NHKの記事だけでは、今回の研究がそういうハードルをクリアしたかどうかまではわかりません)

AIによる内定辞退予測は、過去に日本でも問題になったことがある

ところで日本では、AIによる内定辞退予測サービスが問題になったことがあります。リクルートキャリアが運営するリクナビが、就活生の同意を得ずに「内定辞退率」の予測を顧客企業に販売していた問題です。約8千人のデータが無断で第三者に提供されたそうです。

これはAIの問題というよりも、個人情報の安全管理措置上の問題でした。ただ、AIによる統計的な処理は、個人情報の保護とは不可分なものもありますので、今回の研究にも関連する論点かもしれません。

スポンサーリンク

スポンサーリンク

最近の人気記事

1

「事業再構築補助金」は制度開始から3年目を迎えました。多くの中小企業に知られるようになった事業再構築補助金ですが、このページでは2023年の制度の全容を10分でわかるようにまとめて解説します。 「事業 ...

2

「ものづくり補助金」は制度開始から11年目を迎えました。中小企業政策で最もよく知られているといってもいい「ものづくり補助金」ですが、このページでは2023年の制度の全容を10分でわかるようにまとめて解 ...

3

おはようございます!マネジメントオフィスいまむらの今村敦剛です。 先日、納税地の所轄税務署から「消費税課税事業者届出書の提出について」という文書がきました。個人事業主は、ある期間の課税売上高が1,00 ...

-ブログ, プライバシー・セキュリティ

© 2024 Management Office Imamura Ltd.