説明
機密情報は、モデルに送られるプロンプトの一部として含まれるかもしれない。
機密のデータがファウンデーション・モデルの関心事になるのはなぜですか?
機密データを保護するためにモデルが適切に開発されていない場合、生成された出力に機密情報または IP が表示される可能性があります。 さらに、エンド・ユーザーの機密情報が意図せずに収集され、保管される可能性があります。
機密情報の開示
このソース記事によると、Samsung の社員は ChatGPTを使用して OpenAI に機密情報を開示していました。 1 つは、従業員がエラーをチェックするために機密ソース・コードを貼り付けた場合です。 別の例では、従業員が ChatGPT とコードを共有し、「コードの最適化を要求」しました。 3 番目のユーザーは、プレゼンテーションのためにメモに変換するミーティングの録画を共有しました。 Samsung では、これらのインシデントに対応するために内部 ChatGPT の使用が制限されていますが、データをリコールすることはできません。 さらに、機密情報やその他の機密情報を漏えいするリスクに対応するため、アップルや JP モルガン・チェースなどの企業が対象となっていることも強調しています。 Deutsche Bank、Verizon、Walmart、Samsung、Amazon、および Accenture では、 ChatGPTの使用にいくつかの制限が課されています。
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。