0 / 0
資料の 英語版 に戻る
AI のリスクの迅速な漏えい
最終更新: 2024年12月12日
AI のリスクの迅速な漏えい
堅牢性 ロバストネス・リスクを表すアイコン。
入力に関連するリスク
推定
堅牢性
生成AIの初心者

説明

プロンプト・リーク攻撃は、モデルのシステム・プロンプト (システム・メッセージとも呼ばれる) を抽出しようとします。

なぜ、迅速な漏えいがファウンデーション・モデルの問題なのか?

攻撃が成功すると、モデルで使用されるシステム・プロンプトがコピーされます。 攻撃者は、そのプロンプトの内容に応じて、機密性の高い個人情報や知的財産などの貴重な情報にアクセスでき、モデルの機能の一部を複製できる可能性があります。

親トピック: AI リスク・アトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細