AIアドバイザリーボード 第2回勉強会について
NTTデータでは、2021年4月に社会デザイン・ソフトウェア工学/法務・倫理/リスクマネジメント・SDGsなどさまざまな分野の社外有識者からなる「AIアドバイザリーボード」を設立しました(※1)。本ボードはAI利活用に関する技術動向、法令・規制、市民社会の認識について、有識者と幹部マネジメント層及びAIプロジェクトに関わる現場最前線のメンバーが議論をし、その結果をAIガバナンスの具体的な手段に取り入れていくことを目的としています(図1)。
FY2022第2回勉強会では、上半期に本ボードの事務局が策定した「AIリスクマネジメントガイドライン」(注:非公開)を紹介し、その妥当性・有効性ついてディスカッションを行いました。
図1:AIアドバイザリーボードFY2022体制
AIリスクマネジメントガイドラインとは
本ガイドラインは、EUの規制法案の考え方をベースに、社会を含むステークホルダーの受容性からバックキャストしてリスクマネジメントをするための手順をまとめたものです。
当社におけるAIプロジェクトを支える仕組みの中で、第一回勉強会で紹介したAI品質アセスメント(※2)や2020年度に策定したAI開発プロセス(※3)は、開発プロジェクトにおける開発工程の支援を目的としているのに対して、「AIリスクマネジメントガイドライン」は、プロジェクト初期のサービス企画や提案の時点で、「倫理・社会受容性」を中心としたリスクをマネジメントすることを目的としています。
このガイドラインにおけるAIリスクは、EUのAI規制法案をベースとし、「倫理・社会受容性」の観点を最も重視しています。
同法案では、リスクベースアプローチによりAIシステムのリスクを用途・目的に応じてカテゴライズしています(図2)。中でも、人権に及ぼす影響が大きいAIは「受容できない」として原則使用禁止、あるいは「ハイリスク」として、第三者認証の取得といった義務を課すといった規制が定義されていますが、どのカテゴリにも共通して「倫理・社会受容性」をリスク観点として重視していると考えられることに起因します。
図2:EUのAI規制法案の概要
倫理・社会受容性のリスクは、実際に問題が発生した場合、そのプロジェクトの規模の大小に関わらず、サービス停止等の直接的な影響に加え、開発者・提供者に対するレピュテーションの急激な低下により、企業の事業存続にも影響を及ぼします。このため、当社ではこのリスクのマネジメントは非常に重要と考え、社会を含むステークホルダーの受容性からバックキャストしてリスクマネジメントをするための手順をガイドライン化しました。
リスクマネジメントの手順は「ISO31000:2019 リスクマネジメント」のプロセスに沿って、「リスク検知」「リスクの分析・評価」「対応策の検討」「合意形成」の4ステップから構成されます。実行のノウハウには、これまでのAIアドバイザリーボード活動で委員の先生方からいただいた「ステークホルダーへの配慮」「ダイバーシティのある視点からの検討」「リスクコミュニケーション」を盛り込んでいます(※4)(※5)(※6)。
出席者から寄せられたコメント
出席された委員の先生方からは、「毎回参加しているが、さらに具体性が上がった」「人間中心のリスクマネジメントになっていて良い」といった活動の進捗に対するコメントをいただきました。
また、更なる改善に向けて「リスクの観点である公平性や公正性の詳細な解説を追加すべき」「現場で利用すれば改善点が見えてくるので、PDCAを回して改善を進めてほしい」といったコメントに加えて、画像生成AIに関わる問題提起や議論が急速に増えたことを踏まえ、「新たな分野へのAI活用の問題にもスピード感をもって対応できるようにすべき」といった指摘をいただきました。
社内で実際にプロジェクトマネジメントに携わっている出席者からは、「業界別の差異があれば取り込んでほしい」「法規制の変化や受容性の変化など開発後のリスクの変化をケアして欲しい」「リスクの低減策だけでなく、実際にリスクが起きてしまった場合の対処についても言及すべき」といったコメントがありました。
今後に向けて
今回の勉強会では、AI活用における倫理・社会受容性のリスクを中心に検出・評価・対応するためのガイドラインに対して、工夫や改善点について活発な議論がありました。
AIに対する法規制が現実に近づいてきており、社会から受容されるAIを提供可能な能力や体制を持つことが、企業ブランド価値に繋がると考えられます。NTTデータは、AIアドバイザリーボードでの議論結果を取り入れつつ、AI関連プロジェクトにおける問題発生を抑制するとともに、提供するAIソリューションの品質/信頼性を向上し、安心・安全なAIを利活用できる環境を整備していきます。