0 / 0
Torna alla versione inglese della documentazione
Rischio di attacco inferenza attributo per AI
Ultimo aggiornamento: 12 dic 2024
Rischio di attacco inferenza attributo per AI
Privacy< Icona che rappresenta i rischi per la privacy.
Rischi associati all'input
Inferenza
Privacy<
Amplificato da AI generative

Descrizione

Un attacco di inferenza degli attributi interroga ripetutamente un modello per rilevare se alcune caratteristiche sensibili possono essere dedotte sugli individui che hanno partecipato all'addestramento del modello. Questi attacchi si verificano quando un avversario ha una conoscenza preliminare dei dati di addestramento e utilizza tale conoscenza per dedurre i dati sensibili.

Perché l'inferenza degli attributi è un problema per i modelli di base?

Con un attacco riuscito, l'aggressore può ottenere informazioni preziose come informazioni personali sensibili o proprietà intellettuale.

Argomento principale: Atlas rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni