資料の 英語版 に戻るAI のメンバーシップ推論攻撃リスク
AI のメンバーシップ推論攻撃リスク
最終更新: 2024年12月12日
説明
メンバシップ推論攻撃は、与えられた入力がモデルのトレーニングの一部であったかどうかを判断するために、モデルへの問い合わせを繰り返す。 より具体的には、訓練されたモデルとデータサンプルが与えられると、攻撃者は入力空間をサンプリングし、出力を観察して、そのサンプルがモデルの訓練の一部であったかどうかを推測する。
メンバーシップ推論攻撃がファウンデーション・モデルの問題になるのはなぜですか?
データサンプルがトレーニングデータに使用されたかどうかを特定することで、モデルのトレーニングに使用されたデータを明らかにすることができる。 競合他社に、モデルがどのように訓練されたかを洞察させ、モデルの複製や改ざんの機会を与える可能性がある。 一般に公開されているデータを含むモデルは、このような攻撃を受けるリスクが高い。
親トピック: AI リスク・アトラス
財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。