NTT DATA

DATA INSIGHT

NTT DATAの「知見」と「先見」を社会へ届けるメディア

キーワードで探す
カテゴリで探す
サービスで探す
業種で探す
トピックで探す
キーワードで探す
カテゴリで探す
サービスで探す
業種で探す
トピックで探す
2023.10.24技術トレンド/展望

生成AI活用におけるリスクマネジメントのポイント

生成AIが急激な進化を遂げている。最近では、画像生成AIや文書生成AIが一般でも広く活用されるようになった。これらの生成AIは、人間が生成するのにも劣らない出力が可能ゆえに便利な側面が強調されがちだ。一方、誤りやバイアスのある出力や生成指示(プロンプト)からの情報漏えい、学習データや生成物による著作権侵害など、さまざまなリスクも懸念される。この記事では、生成AIの活用におけるリスクの特徴とリスクマネジメントのポイントについて解説する。
目次

生成AIのリスクマネジメントの必要性

2022年の後半から、データを生成するAIは急激に進化しており、画像生成AIや文書生成AIは一般でも広く使われるようになりました。人間の生成物にも劣らない出力がされることから、その利便性に注目が集まっています。
一方で、生成AIには、出力に誤り・バイアスを含むリスクや、フェイクニュースのようなコンテンツ生成に悪用されうるリスクがあります。さらに、入力(プロンプト)からの情報漏えい、学習データや生成物による著作権侵害などのリスクも指摘されています。そのため、利用にあたってはこれらのリスクを適切にマネジメントしていくことが必要です。本記事では、生成AIのリスクの特徴と、そのリスクマネジメントのポイントを解説します。

生成AI活用における4つのリスク

従来のAIは特定の目的のために、都度学習データの収集と学習アルゴリズムの選定をし、学習を行い、構築したモデルにデータを入力して推論結果を得るものでした。これに対して生成AIは、事前学習済みの大規模モデルに生成指示を入力し、指示に応じたさまざまな媒体のコンテンツを生成するという点が大きく異なります。従来のAIと比較して、生成AIはモデルの素性が見えず、生成指示を与えてみないと何が生成されるかわからないため、ブラックボックスの度合いが高いのです。

生成AIの利用にあたっては、先にも述べたとおりさまざまなリスクがあることが指摘されていますが、企業として留意すべき観点から整理すると以下の4つに大別されます。

サービス提供者の責任リスク

生成AIの出力は必ずしも正確ではないことが知られています。しかし、提供するAIサービスの出力結果に、何らかの瑕疵があることでお客さまへ損害を与えた場合にはサービス提供者として責任を問われかねません。もし悪意を持った利用者がフェイクニュースなどの不正確な情報の生成やマルウェアの生成などに利用し、社会的混乱が生じた場合、サービス提供者の社会的信用も大きく毀損されます。

権利侵害リスク

生成AIはさまざまな著作権侵害の可能性が指摘されており、訴訟も発生しています。生成AIは、入力次第では学習したデータをそのまま再現して出力できる場合があり、特にその出力の元となった学習データが許諾を得ていないものであった場合には、権利侵害・契約違反等に基づく差し止め請求等が発生する可能性もあります。実際に、アメリカでは複数の画像生成AIに対して訴訟が起きています。
また、提供する生成AIサービスの出力結果が他者の著作権や肖像権、商標を侵害した場合にも、訴訟を受けることが考えられます。

情報漏えいリスク

生成AIの中には、ユーザーが生成指示として入力した情報を再学習するものもあります。このような生成AIに生成指示として機密情報が入力され、再学習に利用された場合には、他の利用者にその機密情報が出力されてしまうという情報漏えいリスクがあります。また、生成指示に個人情報を入力する場合には、再学習の有無に関わらず入力したこと自体が個人情報の第三者提供に該当するとみなされ、個人情報保護法違反を問われるリスクもあります。

既存法抵触リスク

生成AIは新しい技術であり、利用の仕方次第では既存規制への抵触が起きる場合があります。例えば、生成AIによる診療サービスを関係当局の許可を得ずに提供すれば、法令違反となるおそれがあります。

リスクマネジメントのポイント

こうした生成AIの活用におけるさまざまなリスクを効果的にマネジメントするためのポイントは、2つあります。

1つ目は、生成AIを利用する際の「立場」を明確にすることです。具体的には以下の3つが考えられます。

  • 「モデル開発者」:データを学習またはチューニングしてモデルを生成する
  • 「プロダクト提供者」:学習済みモデルや外部サービスを利用してアプリケーションを開発・提供する
  • 「利用者」:アプリケーションに生成指示をして出力を利用する

以下の図は、生成AIのバリューチェーンを示したものです。「モデル開発~チューニング~プロダクトへの組み込み~生成指示~出力の利用」の一連の流れにおいて自組織の立場がどこにあたるのかをまず明確にしましょう。その立場に応じて先に述べた4つのリスクに該当するかを分析し、リスクを低減/回避する対応策を検討するアプローチが有効です。

図:生成AIのバリューチェーン

図:生成AIのバリューチェーン

2つ目の重要なポイントは、リスクに対する免責事項を明確にすることです。例えば、生成AIの出力は100%正しいとは限らないため、プロダクト提供者の立場からはその誤りをどこまで許容いただけるのかお客さまと協議が必要でしょう。もし、誤りへの許容度が低い業務に適用するような場合は、人的確認やフェールセーフの仕組みを導入することも必要となります。

生成AIは新しい技術であり、リスクとベネフィットがまだ明確になっていません。そのため、リスクへの認識が大きく異なるステークホルダー間でリスクに関して適切なコミュニケーションをとる必要があります。ユースケースに応じて4つのリスクの可能性について検討し、プロダクト提供者であればリスクとその軽減策を利用者に説明し、利用者であればリスクの理解をすることが重要です。

NTT DATAでは、2023年4月にAIガバナンス室を設立し、これまで述べてきた4つのリスクと3つの立場の観点で、生成AI活用における留意事項と対処方針をまとめた社内向けのガイドラインを整備しています。

生成AIの活用を検討している方は、生成AIのバリューチェーンにおいて自身がどの立場にあたるかを踏まえ、リスクマネジメントの具体化に役立てていただければ幸いです。

NTT DATAのAIガバナンスとAIの品質保証の取り組みについてはこちら:
https://www.nttdata.com/jp/ja/services/data-and-intelligence/governance/

今後に向けて

生成AIは、社会に大きな変化をもたらす可能性を秘めています。しかしその反面、利用にあたっては従来のAIよりも広範囲のリスクがあり、適切なリスクマネジメントが必要です。いかにリスクを低減し、ベネフィットを得ていくのか。NTT DATAではお客さまへ安全なAIシステムをお届けするために、これからもAIガバナンス活動を継続してまいります。

お問い合わせ