0 / 0
資料の 英語版 に戻る
AIのための個人情報リスクの暴露
最終更新: 2024年12月12日
AIのための個人情報リスクの暴露
プライバシー プライバシーリスクを表すアイコン。
出力に関するリスク
プライバシー
ジェネレーティブAIによる増幅

説明

個人を特定できる情報(PII)や機微な個人情報(SPI)が学習データ、微調整データ、またはプロンプトの一部として使用されている場合、モデルは生成された出力にそのデータを明らかにする可能性がある。 個人情報の漏洩は情報漏えいの一種である。

ファンデーション・モデルにとって、なぜ個人情報の暴露が懸念されるのか?

人々のPIを共有することは、彼らの権利に影響を与え、彼らをより脆弱にする。

入力に関するリスクの背景画像

個人情報の漏洩

ソース記事によると、ChatGPTにバグがあり、タイトルとアクティブユーザーのチャット履歴が他のユーザーに公開された。 その後、OpenAIは、アクティブユーザーの姓名、電子メールアドレス、支払い先住所、クレジットカード番号の下4桁、クレジットカードの有効期限など、少数のユーザーからさらに多くの個人データが流出したことを明らかにした。 さらに、1.2%のChatGPTPlus加入者の支払い関連情報も障害で流出したと報告されている。

親トピック: AIリスクアトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細