資料の 英語版 に戻るAIのための個人情報リスクの暴露
AIのための個人情報リスクの暴露
最終更新: 2024年12月12日
説明
個人を特定できる情報(PII)や機微な個人情報(SPI)が学習データ、微調整データ、またはプロンプトの一部として使用されている場合、モデルは生成された出力にそのデータを明らかにする可能性がある。 個人情報の漏洩は情報漏えいの一種である。
ファンデーション・モデルにとって、なぜ個人情報の暴露が懸念されるのか?
人々のPIを共有することは、彼らの権利に影響を与え、彼らをより脆弱にする。
例
個人情報の漏洩
ソース記事によると、ChatGPTにバグがあり、タイトルとアクティブユーザーのチャット履歴が他のユーザーに公開された。 その後、OpenAIは、アクティブユーザーの姓名、電子メールアドレス、支払い先住所、クレジットカード番号の下4桁、クレジットカードの有効期限など、少数のユーザーからさらに多くの個人データが流出したことを明らかにした。 さらに、1.2%のChatGPTPlus加入者の支払い関連情報も障害で流出したと報告されている。
親トピック: AIリスクアトラス
財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。