資料の 英語版 に戻る
AI のメンバーシップ推論攻撃リスク
AI のメンバーシップ推論攻撃リスク
説明
トレーニングされたモデルとデータ・サンプルが与えられると、攻撃者は入力スペースを適切にサンプリングし、出力を観察して、そのサンプルがモデルのトレーニングの一部であったかどうかを推測します。 これは、メンバーシップ推論攻撃と呼ばれます。
メンバーシップ推論攻撃がファウンデーション・モデルの問題になるのはなぜですか?
トレーニング・データにデータ・サンプルが使用されたかどうかを識別することで、モデルのトレーニングに使用されたデータを明らかにすることができます。これにより、モデルのトレーニング方法やモデルを複製したり改ざんしたりする機会についての競合他社の洞察が得られる可能性があります。
親トピック: AI リスク・アトラス