0 / 0
資料の 英語版 に戻る
AI のデータ・プライバシーの権利リスク

AI のデータ・プライバシーの権利リスク

入力に関連するリスク
トレーニングおよびチューニングのフェーズ
個人情報について
生成 AI による増幅

説明

オプトアウト、アクセス権、忘れられる権利など、データ主体の権利を提供する能力に関する課題。

データ・プライバシーの権利がファウンデーション・モデルの関心事であるのはなぜですか?

データの特定または不適切な使用は、プライバシー法の違反につながる可能性があります。 使用法が不適切であるか、データ削除を要求すると、組織がモデルをリトレーニングしなければならなくなる可能性があります。これにはコストがかかります。 さらに、ビジネス・エンティティーは、データ・プライバシー・ルールおよび規制に準拠していない場合、罰金、風評被害、業務の中断、およびその他の法的結果に直面する可能性があります。

入力に関連付けられたリスクの背景イメージ

忘れられるべき権利 (RTBF)

ヨーロッパ (GDPR) を含む複数の地域の法律では、組織による個人データの削除を要求する権利 (「忘れられる権利」または RTBF) がデータ主体に付与されています。 しかし、LLM (Large Language Model) 対応のソフトウェア・システムが登場し、ますます人気が高まっていますが、これには新たな課題があります。 CSIRO の Data61の調査によると、データ主体は、「元のトレーニング・データ・セットを検査するか、場合によってはモデルにプロンプトを出すことによって」、LLM 内での個人情報の使用を識別することができます。 しかし、訓練データが公開されていないか、企業が安全性などを理由に公開していない可能性があります。 ガードレールは、ユーザーがプロンプトを出して情報にアクセスできないようにする場合もあります。 これらの障壁のため、データ主体は RTBF 手順を開始できない可能性があり、LLM を導入する企業は RTBF 法を満たすことができない可能性があります。

入力に関連付けられたリスクの背景イメージ

LLM 学習解除に関する訴訟

報告書によると、著作物と個人情報を AI システム (Bard チャットボットを含む) の訓練データとして利用したとして、 Google を相手取って訴訟が提起された。 オプトアウトおよび削除の権利は、CCPA の下のカリフォルニア州住民と、COPPA で 13 歳未満のアメリカ合衆国の子供の権利が保証されています。 原告側は、Bard が「学ぶことができない」とか、スクレイプされた PI を完全に除去する方法がないために、フィードされたと主張している。 原告は、Bard のプライバシーに関する通知には、Bard の会話が会社によってレビューされアノテーションを付けられた後にユーザーが削除することはできず、最大 3 年間保持される可能性があることが明記されていると指摘しています。 P 社は、これらの慣行がこれらの法律の不遵守にさらに貢献していると主張しています。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細