AI(人工知能)-ガバナンス
急速な勢いで進化を続けるAIをいかにビジネスに活用するか?幅広いビジネス課題に対応するAI活用のポイントとNTTデータの最新の取り組み事例やニュースを紹介します。
NTT DATAのAIガバナンス
AIガバナンスの必要性
AI活用によってさまざまなことが便利になる一方、精度や品質の制御には特有の課題があります。安心・信頼できるAIの提供には、AI・データ活用技術がもたらすリスクを正しく理解したうえで、実効的なAIガバナンスを整備することが不可欠です。
特に近年急速に利用が拡大している生成AIは、便利な一方で、その出力に含まれる誤りやバイアスに関するリスク、生成指示からの情報漏洩リスク、学習データや生成物の著作権侵害リスクなど、利用にあたって様々なリスクがあることが指摘されています。これらのリスクに対して一部の地域や国家で規制が強化されており、ガバナンスの整備が急務となっています。
NTT DATAは、人間とAIが共生する「より豊かで調和のとれた社会」の実現に向けて、政府が主導するAIガバナンス関連の会合に参画しAIを扱う企業として情報提供しているほか、「AI指針」や「AIリスクマネジメントポリシー」、ガイドラインの整備など、AIシステムの開発、利活用を中心としたAIガバナンスの取り組みを拡大・継続しています。
日本
2022年までは総務省や経済産業省からAIの利活用における原則やガイドライン、および、各省庁からAIの出力の誤りが人命に直結する医療や自動運転、財産への影響が大きい金融分野などで個別のガイドラインが公開され、これらを皆で守るソフトローの路線でした。しかし、生成AIの登場により、AIに関する国内外の状況が大きく変化したことで、国際的な議論動向や国内与党からの提言も踏まえ、政府にAI戦略会議が設置され、戦略の見直しが行われました。
具体的には、AI戦略会議の議論を踏まえ、内閣府、総務省、経済産業省が連携して事業者向けの新たな統合ガイドラインである「AI事業者ガイドライン」の策定が進んでいます。これは、総務省の「AI開発ガイドライン」と「AI利活用ガイドライン」、経済産業省の「AI原則実践のためのガバナンスガイドライン」の3つをベースにして、生成AIなど新しい要素も取り込んだ上で、事業者向けの1つのガイドラインにまとめるものです。3月中旬に公開されたガイドライン案について、順調に検討が進めば2024年3月末までにガイドラインの第1.0版が公開される見込みです。
また、2023年12月に自民党から出された「AIの安全性確保と活用促進に関する緊急提言」では、AI事業者ガイドラインの遵守の法制化が提唱されています。
アメリカ
2022年まではプライバシーや金融、雇用など分野ごとにAIの利用規制や、これらの分野への自動意思決定システムに公平であることの透明性の義務を課す「アルゴリズム説明責任法案」など、分野ごとの法規制が進められてきました。また、AIそのものには、AIを用いたシステムを設計、使用する際に考慮すべき5つの原則を定めた「AI権利章典」の検討や、AIによる市民の自由意志や差別、組織の評判やセキュリティ、グローバルな金融システムやサプライチェーンへの悪影響を想定した「AIリスクマネジメントフレームワーク」といったハードローとソフトローの両面からの規制強化が行われてきました。
2023年8月には、生成AIの急速な発展を受けて、バイデン大統領がOpenAIやマイクロソフト、グーグルなど7社のトップと会談を行い、開発企業がサービス発売前の段階で、外部専門家による検証やリスク評価を通じ、AIの安全性や信頼性を保証することで合意しました。
その後、2023年10月末にAIの安全性に関する大統領令が発行され、これに基づいて法規制が行われる見込みとなり、今後、どういった規制強化が行われるのか注目されています。
EU
EUのAI規制法は2021年4月に法案が公開され、2023年12月に大筋合意、2024年3月に欧州議会で可決されました。今後は加盟国で構成する理事会の承認を経て成立し、2026年にも完全適用といわれています。
この法律は「リスクベース・アプローチ」により倫理の観点からリスクを4つにカテゴライズし、対策を義務づけています。
「受容できないAI」は「人々の安全や権利に対して明らかに驚異のあるAIシステム」で、潜在意識への働きかけや公的機関による社会的スコア利用が該当し、原則、禁止とされます。
「ハイリスクAI」は「人々の安全や権利に悪影響を及ぼす可能性があるAIシステム」で、医療や自動運転、人材採用などが該当し、適合性評価として第三者認証の取得や提供者と利用者に運用上の義務が課されます。
「透明性義務を伴うAI」は、チャットボットや感情推定AIが該当し、人の誤認誘導防止のため、AIの利用を明示する義務が課されます。
生成AIは「Foundation Model」として、モデルの提供者に対して運用上の義務と透明性義務の規制、学習データ開示の義務づけなど、特有の規制が課されます。
違反した場合は最大で3,500万€あるいは 全世界売上高の7%の大きい方の金額という巨額の賠償金が課されます。
G7
2023年のG7広島サミットではグローバルAIガバナンスが主要トピックとして取り上げられ、責任あるイノベーションと実装の推進が宣言されました。その内容は大きく2つあります。
1つはAIガバナンスの相互運用性の確保です。米欧日それぞれでAIに対する規制の考え方が異なっていることを踏まえ、たとえ制度が違ってもAIガバナンスとして相互に運用できるようにするために、国際機関を通じた国際技術標準の開発および採用の推進を図ることです。
もう1つが生成AIに関する議論のための「広島AIプロセス」の創設です。これは年内に結論が得られるように定期的に議論が進められ、12月に広島AIプロセス包括的政策枠組みが承認されました。4つの文書と今後の作業計画が取りまとめられ、2024年の議長国イタリアに引き継がれました。主に、12か条からなる国際指針と、12か条の指針に対してAI開発企業が取るべき対策事例を例示した「行動規範」の2つの柱で構成されています。具体的には、AI関連企業が製品を市場に投入する前に外部の専門家のチェックを受けることや、人がつくったものと区別するためAIの生成物には原則として「電子透かし」の導入などが適用されるべきとしています。
その他
- 中国は2022年にレコメンド等のアルゴリズムで差別を禁止する規制法、2023年8月に生成AI規制を施行するなど独自で法規制を強化しています。
- OECDが2019年5月に公開したAI原則は、世界中で作成されているAI原則やガイドラインの根本になるものといわれています。2022年の生成AIの登場を踏まえて、AIの定義と原則の見直しが進められています。
- 2023年11月にイギリスでAI安全サミットの第1回が開催され、G7に加えて中国も参加し合計28か国で生成AIや汎用AIをフロンティアAIとして、その安全性に取り組むことを合意しました。2024年も韓国とフランスで開催の予定で、今後の議論が注目されます。
- 国連でも「AIに関する諮問機関」が2023年10月に設置され、世界中から委員が集められてAIガバナンスに関する議論を行い、2024年9月に開催予定の国連未来サミットで報告予定といわれています。
ホワイトペーパー
AIシステムの開発・運用・利活用に、
安心と信頼をもたらす「AIガバナンス」
- Chapter.1はじめに
- Chapter.2AI規制に関する国内外の動向
-
Chapter.3安心・安全で信頼性のある
AIの社会実装に必要な「AIガバナンス」
各国の法規制の最新動向
AI活用における様々なリスクや生成AIの登場を受けて、世界各国で法規制やガイドラインなどガバナンスを強化する動きが進んでいます。
各国のAIガバナンスに関する最新動向とG7をはじめとする多国間の取り組みについて紹介します。
AIガバナンスに関するNTT DATAの取り組み
NTT DATAは、AIの積極的な活用だけでなく、統制のためのガバナンス活動も推進し、品質・倫理の両面から公平かつ健全なAI活用による価値創造と持続的な社会の発展に向けた活動を実施しています。生成AIに対しても、こういった動向を踏まえたあるべき生成AIへのガバナンスを具体化していく活動を推進しております。ガイドラインやポリシーの改訂を行っていくことで、お客さまに安心・安全なAIサービスをご提供します。
NTTデータグループAI指針
5つの項目からなるこの指針は『AIは基本的な人権を侵してはならず、人間社会の幸福を実現するために存在するべきである』というメッセージを込めたもので、NTT DATAがAI社会の実現に向けてさまざまな技術開発、およびサービス提供を実施する際に参考とするものです。
これらを実現するためには、「個人データの取り扱い」や「AIの説明可能性」について真剣に向き合い、ステークホルダーとの共創を通して社会に新しい価値を提供していく必要があります。そして、AI人材の育成やお客さまのAIリテラシー向上に積極的に取り組み、社会的受容性を向上させ、AIを広く社会に浸透させていきます。
NTT DATAのGroup Vision「Trusted Global Innovator」に込められた「長期にわたる揺るぎない関係性から醸成される信頼」「グローバルレベルでの多様性の尊重」「先端テクノロジーを活用したビジネスイノベーション」という意味を反映し、それぞれ「ロングターム・リレーションシップ」「多様性を認めあう/基本的人権への配慮」「新しいAI価値創出」という形で指針を制作しています。
AIリスクマネジメントポリシー
グループ全体として管理すべきAIリスクと、そのマネジメントフレームワークを定めた「AIリスクマネジメントポリシー」を制定しました。生成AIの急速な発展によりAIガバナンスの整備が急務となっていることを踏まえ、現在、グループ全体で本ポリシーに基づいたルール・プロセスの整備を進めています。
ルール・ガイドライン
ポリシーに基づいたリスクマネジメントを実現するために、AI全般について具体的な実効性をもったマネジメントルールや、生成AIに特化して開発・提供・利用3つの立場の観点から留意事項と対処方針をまとめた社内向けのガイドラインを整備しています。
AIガバナンス室
AIガバナンス室は、AIの不適切な利用によって生じるリスクを実効的にマネジメントし、AIの適正活用を推進するための組織です。NTT DATAが提供するAIシステムおよび当社内システムを対象に、AIによる事業リスクを検知するルール・体制を整備し、プロジェクトと一体となって対処することで、社会とお客さまがAI活用の恩恵を最大限に享受し、サステナブルな社会を実現できる環境を整備していきます。
AIアドバイザリーボード
AIアドバイザリーボードは、社会デザイン・ソフトウェア工学/法務・倫理/レジリエンス・SDGsなど様々な分野を専門とする大学・研究機関の有識者で構成されるグローバルな組織です。AI利活用に関する最新の技術動向、法令・規制、市民社会の認識について、有識者とNTT DATAのメンバーが議論し、その結果をAIガバナンスの具体的な手段に取り入れています。
レポート&コラム
山本 英生
金融における生成AI活用の可能性 ーAI活用のリスク低減への取り組みー
ChatGPTの登場以降、生成AIをさまざまなビジネスに活用する可能性が探られている一方、生成AIを活用することで生じる権利侵害などのリスクも懸念されている。本記事ではAIの歴史、従来のAIと生成AIの違いといった基礎知識を解説。その上で、金融分野における生成AI活用のユースケースやガバナンスの重要性、生成AI活用のリスクを低減するソリューションとしてNTTデータが開発したLITRON®Generative Assistantを紹介する。
データ&インテリジェンス 生成AI 金融 サステナビリティ
詳細はこちら
鈴木 賢一郎
生成AI活用におけるリスクマネジメントのポイント
生成AIが急激な進化を遂げている。最近では、画像生成AIや文書生成AIが一般でも広く活用されるようになった。これらの生成AIは、人間が生成するのにも劣らない出力が可能ゆえに便利な側面が強調されがちだ。一方、誤りやバイアスのある出力や生成指示(プロンプト)からの情報漏えい、学習データや生成物による著作権侵害など、さまざまなリスクも懸念される。この記事では、生成AIの活用におけるリスクの特徴とリスクマネジメントのポイントについて解説する。
データ&インテリジェンス 生成AI
詳細はこちら
鈴木 賢一郎
生成系AIの最新動向と法的懸念点
昨年後半からデータを生成するAIが急激に進化しており、特に画像生成AIやチャット生成AIが広く一般でも使われるようになった。これらの生成系AIは、人間が生成するのにも劣らない出力がされることで便利さが強調される一方で、出力の真偽の問題や、容易に悪用できてしまう問題、学習データや生成物に関する著作権などのさまざまな権利の問題についても指摘されている。こうした状況を踏まえ、AIアドバイザリーボード勉強会で生成系AIの最新動向と法的懸念点について講演と意見交換を行ったので、そのエッセンスを踏まえ解説する。
データ&インテリジェンス 生成AI デジタル化・DX
詳細はこちら
AIアドバイザリーボード 議論結果
2023年度
- 2022年度版
-
- 総会レポート記事
- 2021年度版
-
- NTTデータのAIガバナンスに関するForesight
- 総会レポート記事
- 議事抄録
AIガバナンスに関するご依頼やご相談は、こちらからお問い合わせください。