0 / 0
Torna alla versione inglese della documentazione
Rischio di attacco di inferenza di appartenenza per AI

Rischio di attacco di inferenza di appartenenza per AI

Rischi associati all'input
Inferenza
Privacy<
Rischio di intelligenza artificiale tradizionale

Descrizione

Dato un modello addestrato e un campione di dati, un aggressore esegue un campionamento appropriato dello spazio di input, osservando gli output per dedurre se tale campione faceva parte dell'addestramento del modello. Questo è noto come attacco di inferenza di appartenenza.

Perché l'inferenza dell'appartenenza è una preoccupazione per i modelli di fondazione?

Identificare se un campione di dati è stato utilizzato per l'addestramento dei dati può rivelare quali dati sono stati utilizzati per addestrare un modello, fornendo ai concorrenti informazioni dettagliate sul modo in cui un modello è stato addestrato e l'opportunità di replicare il modello o di alterarlo.

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni