0 / 0
資料の 英語版 に戻る
AI のメンバーシップ推論攻撃リスク

AI のメンバーシップ推論攻撃リスク

入力に関連するリスク
推論
個人情報について
従来型の AI リスク

説明

トレーニングされたモデルとデータ・サンプルが与えられると、攻撃者は入力スペースを適切にサンプリングし、出力を観察して、そのサンプルがモデルのトレーニングの一部であったかどうかを推測します。 これは、メンバーシップ推論攻撃と呼ばれます。

メンバーシップ推論攻撃がファウンデーション・モデルの問題になるのはなぜですか?

トレーニング・データにデータ・サンプルが使用されたかどうかを識別することで、モデルのトレーニングに使用されたデータを明らかにすることができます。これにより、モデルのトレーニング方法やモデルを複製したり改ざんしたりする機会についての競合他社の洞察が得られる可能性があります。

親トピック: AI リスク・アトラス

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細