- 目次
AIアドバイザリーボードについて
2021年4月NTTデータは、社会デザイン・ソフトウェア工学/法務・倫理/リスクマネジメント・SDGsなどさまざまな分野の社外有識者からなる「AIアドバイザリーボード」を設立しました。AI利活用に関する技術動向や法令・規制、市民社会の認識について、有識者と幹部マネジメント層及びAIプロジェクトに関わる現場最前線のメンバーが議論をし、その結果をAIガバナンスの具体的な手段に取り入れていく活動になります。第1回勉強会(※2)では「政策動向を意識したAI活用」について議論を行い、今回第2回の開催に至りました。
図1:AIアドバイザリーボードの外部有識者メンバーと運用
AIと⼈権︓プライバシーと差別に関する問題を中心に
第2回勉強会では、成原慧先生が「AIと人権:プライバシーと差別に関する問題を中心に」について講演しました。ビッグデータ・AIの利用に伴い、プライバシー侵害やマイノリティの人々に不公平な判断が行われる「AIによる差別」が問題として認識されるようになってきたと指摘。具体的な事例として入居審査に関わるAIなどを挙げられました。この例では2つの問題が生じうることが指摘されました。
- 1.判断の理由が明確にされない透明性の問題
- 2.国籍など不当な差別につながりかねない情報を入力として使うことが妥当かといった公平性の問題
一方で、AIが登場する以前に人が審査していた際にも、不透明性や不公平性が存在していたと述べ、AIが差別をするというよりも、それまでに人間が行ってきた差別がAIによって可視化・再生産されることで、どう対処すればよいのかを社会に迫っているのではないか、との考え方を示されました。
次に、AIと法・倫理の関係について、特にプライバシー・個人情報保護の在り方を中心に解説されました。テクノロジーが進化し様々なデータが取得・利用される現代社会において、プライバシー保護の在り方が問い直されている状況である、との動向を解説されました。特にAIについては学習データの影響が大きいため、個人の権利利益を確保するためにプライバシーに配慮した設計や、データガバナンスなど多様な手段を組み合わせることも必要との認識が示されました。また、個人情報保護法が改正され、個人情報の不適正な利用が禁止されるなど、プライバシーや差別の防止などの価値に照らして、より実質的な判断が求められるようになっているとの解説がありました。
AIのリスク対策については、EUのAI規則案のように、全体的に倫理指針・原則から法規制へとルール形成の在り方が変容しつつあるという流れがあると述べられた上で、立法に先駆けて企業自身が自らガバナンスを構築していくことの重要性を説かれました。
図2:「AIと⼈権︓プライバシーと差別に関する問題を中心に」講演資料サンプルイメージ
知的財産室におけるAI/データ利用ビジネスへの取り組み
NTTデータの知的財産室からは、AIやデータを用いるビジネスや当該ビジネスでのPoC(Proof of Concept:実証実験)において、事業展開・促進を見据えた成果物の権利整理をどうするかなど、実際に現場から挙がってくる相談への対応実績や、AI/データ利用ビジネスに関する情報配信、教育・啓発等の活動状況を紹介しました。具体的には、AI生成物(学習済パラメータ等)やデータの権利帰属と使用条件について定めた契約書雛形の整備、クローリング技術を利用する際の法的留意点の周知、AI/データ利用ビジネス事例集の作成・展開、プロジェクト向け研修の実施、などの事例を挙げました。
情報セキュリティ推進室におけるAIセキュリティへの対応
NTTデータの情報セキュリティ推進室からは、当社における情報セキュリティガバナンス体制や個人情報保護の取り組みの紹介がありました。これまで取り組んできたビジネス向けのセキュリティと自社のセキュリティの2つに加えて、今後は第三の極としてAIのセキュリティが加わってくることを念頭に、「人間中心のAI社会原則」のうち、セキュリティの観点からは「プライバシー確保の原則」と「セキュリティ確保の原則」を考えていく必要があることが述べられました。さらに匿名加工データもAI技術を考慮すると個人データに戻ってしまう可能性があるという点を念頭において、想像力を働かせながらシステムの開発・設計・運用を進めていく必要があることを述べました。
図3:NTTデータにおける情報セキュリティガバナンス体制
活発な議論の一部をご紹介
1.プライバシーの扱いについて
プライバシーは生成途上の権利であり、法的な保護の在り方については専門家の間でも議論が続けられています。今後実際にどのように保護されていくのか、どのような対処をすべきか意見交換を行いました。成原先生からは、プライバシーは法令の明文で定義されておらず、解釈によって生まれてきたものであり、社会の意識や技術の変化によってプライバシー保護の在り方が変化する、との説明がありました。そのため、個別事案や社会の状況に応じて、プライバシー保護の在り方を検討し、ガバナンスのプロセスやルールに取り入れていくことが必要、との指摘をいただきました。
2.個人情報保護の範囲について
個人に不利益を与えないような使い方をする場合も個人情報保護の対象になるのか?という観点で、最新の動向がどうなっているか、および、どのような方針を取るべきか、という質問がでました。これに対し成原先生から、現実的な問題として「何が個人の不利益に繋がるか未然にはっきりわからない」ため0か1では決められず、リスクの許容レベルのような考え方が必要であるという見解が述べられました。さらに個人情報保護法でも「要配慮情報」のように保護の濃淡が設定されたり、個人情報の不適正な利用を禁止する改正が行われていることなどから、企業としても、個人情報の内容や利用方法に照らしてリスクを評価し、リスクに応じて慎重に保護の在り方を検討する必要がある、との見解もいただきました。
3.倫理感を持つことについて
企業が強い倫理観を持ち、リスクを認識してヘッジするための実行的な方法としてどのような対処があるか議論を行いました。成原先生の見解としては、基本は個人の尊厳を守る発想が大事であり、世の中に自社のデータの利用方法を公言した時に顧客や社会に理解を得られることをしているか、という視点が大事であると述べられました。また、こうした問題に対応するにあたっては、様々なステークホルダーの価値観を考慮するためにダイバーシティを確保した環境での検討が重要であることを挙げられました。
最後に
今回の勉強会では、AIによる差別の問題をきっかけに、従来から存在していたバイアスが可視化・強調され、より高い倫理観とガバナンスがビジネスに求められる時代になってきたことが示されました。NTTデータは、AIアドバイザリーボードでの議論結果を取り入れつつ、AI関連プロジェクトにおける問題発生を抑制するとともに、提供するAIソリューションの品質/信頼性を向上し、安心・安全なAIを利活用できる環境を整備していきます。