0 / 0
資料の 英語版 に戻る
AI のための攻撃リスクの抽出
最終更新: 2024年12月12日
AI のための攻撃リスクの抽出
堅牢性 ロバストネス・リスクを表すアイコン。
入力に関連するリスク
推定
堅牢性
生成 AI による増幅

説明

属性推論攻撃は、モデルの訓練に参加した個人について、特定の敏感な特徴が推論できるかどうかを検出するために使用される。 このような攻撃は、敵が訓練データに関する予備知識を持ち、その知識を使って機密データを推測する場合に発生する。

抽出攻撃がファウンデーション・モデルの問題であるのはなぜですか?

抽出攻撃が成功すると、攻撃者はさらに敵対的な攻撃を行い、機密個人情報や知的財産などの貴重な情報を得ることができる。

親トピック: AI リスク・アトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細