0 / 0
Torna alla versione inglese della documentazione
Rischio di attacco di estrazione per AI
Ultimo aggiornamento: 12 dic 2024
Rischio di attacco di estrazione per AI
Robustezza Icona che rappresenta i rischi di robustezza.
Rischi associati all'input
Inferenza
Affidabilità
Amplificato da AI generative

Descrizione

Un attacco di inferenza degli attributi viene utilizzato per rilevare se alcune caratteristiche sensibili possono essere dedotte sugli individui che hanno partecipato all'addestramento di un modello. Questi attacchi si verificano quando un avversario possiede una conoscenza preliminare dei dati di addestramento e la utilizza per dedurre i dati sensibili.

Perché l'attacco di estrazione è una preoccupazione per i modelli di fondazione?

Con un attacco di estrazione riuscito, l'aggressore può eseguire ulteriori attacchi avversari per ottenere informazioni preziose come dati personali sensibili o proprietà intellettuale.

Argomento principale: Atlas rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni