0 / 0
資料の 英語版 に戻る
AI のリスクの迅速な漏えい

AI のリスクの迅速な漏えい

入力に関連するリスク
推論
堅牢性
生成 AI による増幅

説明

プロンプト・リーク攻撃は、モデルのシステム・プロンプト (システム・メッセージとも呼ばれる) を抽出しようとします。

なぜ、迅速な漏えいがファウンデーション・モデルの問題なのか?

攻撃が成功すると、モデルで使用されるシステム・プロンプトがコピーされます。 攻撃者は、そのプロンプトの内容に応じて、機密性の高い個人情報や知的財産などの貴重な情報にアクセスでき、モデルの機能の一部を複製できる可能性があります。

親トピック: AI リスク・アトラス

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細