0 / 0
資料の 英語版 に戻る
AI のメンバーシップ推論攻撃リスク
最終更新: 2024年12月12日
AI のメンバーシップ推論攻撃リスク
プライバシー プライバシーリスクを表すアイコン。
入力に関連するリスク
推定
プライバシー
ジェネレーティブAIによる増幅

説明

メンバシップ推論攻撃は、与えられた入力がモデルのトレーニングの一部であったかどうかを判断するために、モデルへの問い合わせを繰り返す。 より具体的には、訓練されたモデルとデータサンプルが与えられると、攻撃者は入力空間をサンプリングし、出力を観察して、そのサンプルがモデルの訓練の一部であったかどうかを推測する。

メンバーシップ推論攻撃がファウンデーション・モデルの問題になるのはなぜですか?

データサンプルがトレーニングデータに使用されたかどうかを特定することで、モデルのトレーニングに使用されたデータを明らかにすることができる。 競合他社に、モデルがどのように訓練されたかを洞察させ、モデルの複製や改ざんの機会を与える可能性がある。 一般に公開されているデータを含むモデルは、このような攻撃を受けるリスクが高い。

親トピック: AI リスク・アトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細