説明
既存の法律には、オプトアウト、アクセス権、忘れられる権利といったデータ主体の権利の提供が含まれる可能性がある。
なぜデータ・プライバシーの権利調整が財団モデルの懸念事項なのか?
不適切な使用やデータ削除の要求があった場合、組織はモデルの再トレーニングを余儀なくされる可能性があり、それにはコストがかかる。
忘れられるべき権利 (RTBF)
ヨーロッパ (GDPR) を含む複数の地域の法律では、組織による個人データの削除を要求する権利 (「忘れられる権利」または RTBF) がデータ主体に付与されています。 しかし、LLM (Large Language Model) 対応のソフトウェア・システムが登場し、ますます人気が高まっていますが、これには新たな課題があります。 CSIRO の Data61の調査によると、データ主体は、「元のトレーニング・データ・セットを検査するか、場合によってはモデルにプロンプトを出すことによって」、LLM 内での個人情報の使用を識別することができます。 しかし、訓練データが公開されていないか、企業が安全性などを理由に公開していない可能性があります。 ガードレールは、ユーザーがプロンプトを出して情報にアクセスできないようにする場合もあります。 これらの障壁のため、データ主体は RTBF 手順を開始できない可能性があり、LLM を導入する企業は RTBF 法を満たすことができない可能性があります。
LLM 学習解除に関する訴訟
報告書によると、著作物と個人情報を AI システム (Bard チャットボットを含む) の訓練データとして利用したとして、 Google を相手取って訴訟が提起された。 オプトアウトおよび削除の権利は、CCPA の下のカリフォルニア州住民と、COPPA で 13 歳未満のアメリカ合衆国の子供の権利が保証されています。 原告側は、Bard が「学ぶことができない」とか、スクレイプされた PI を完全に除去する方法がないために、フィードされたと主張している。 原告は、Bard のプライバシーに関する通知には、Bard の会話が会社によってレビューされアノテーションを付けられた後にユーザーが削除することはできず、最大 3 年間保持される可能性があることが明記されていると指摘しています。 原告は、これらの慣行がこれらの法律の不遵守をさらに助長していると主張している。
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。