Torna alla versione inglese della documentazione
Rischio di attacco di inferenza di appartenenza per AI
Rischio di attacco di inferenza di appartenenza per AI
Descrizione
Dato un modello addestrato e un campione di dati, un aggressore esegue un campionamento appropriato dello spazio di input, osservando gli output per dedurre se tale campione faceva parte dell'addestramento del modello. Questo è noto come attacco di inferenza di appartenenza.
Perché l'inferenza dell'appartenenza è una preoccupazione per i modelli di fondazione?
Identificare se un campione di dati è stato utilizzato per l'addestramento dei dati può rivelare quali dati sono stati utilizzati per addestrare un modello, fornendo ai concorrenti informazioni dettagliate sul modo in cui un modello è stato addestrato e l'opportunità di replicare il modello o di alterarlo.
Argomento principale: Atlas rischio AI