0 / 0
Torna alla versione inglese della documentazione
Rischio di attacco inferenza attributo per AI

Rischio di attacco inferenza attributo per AI

Rischi associati all'input
Inferenza
Privacy<
Amplificato da AI generative

Descrizione

Un attacco di inferenza attributo viene utilizzato per rilevare se determinate funzioni sensibili possono essere dedotte su individui che hanno partecipato all'addestramento di un modello. Questi attacchi si verificano quando un avversario ha una conoscenza preliminare dei dati di addestramento e utilizza tale conoscenza per dedurre i dati sensibili.

Perché l'inferenza degli attributi è un problema per i modelli di base?

Con un attacco riuscito, l'aggressore può ottenere informazioni preziose come informazioni personali sensibili o proprietà intellettuale.

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni