0 / 0
資料の 英語版 に戻る
AI の迅速なリスクにさらされている機密データ

AI の迅速なリスクにさらされている機密データ

入力に関連するリスク
推定
知的財産
生成 AI の新機能

説明

モデルに送信されるプロンプトの一部としての機密データの組み込み。

機密のデータがファウンデーション・モデルの関心事になるのはなぜですか?

機密データを保護するためにモデルが適切に開発されていない場合、生成された出力に機密情報または IP が表示される可能性があります。 さらに、エンド・ユーザーの機密情報が意図せずに収集され、保管される可能性があります。

入力に関連付けられたリスクの背景イメージ

機密情報の開示

このソース記事によると、Samsung の社員は ChatGPTを使用して OpenAI に機密情報を開示していました。 1 つは、従業員がエラーをチェックするために機密ソース・コードを貼り付けた場合です。 もう 1 つは、従業員が ChatGPT を使用してコードを共有し、「コードの最適化を要求しました」ということです。 3 番目のユーザーは、プレゼンテーションのためにメモに変換するミーティングの録画を共有しました。 Samsung では、これらのインシデントに対応するために内部 ChatGPT の使用が制限されていますが、データをリコールすることはできません。 さらに、機密情報やその他の機密情報を漏えいするリスクに対応するため、アップルや JP モルガン・チェースなどの企業が対象となっていることも強調しています。 Deutsche Bank、Verizon、Walmart、Samsung、Amazon、および Accenture では、 ChatGPTの使用にいくつかの制限が課されています。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細