0 / 0
Torna alla versione inglese della documentazione
Rischio di attacco di inferenza di appartenenza per AI
Ultimo aggiornamento: 12 dic 2024
Rischio di attacco di inferenza di appartenenza per AI
Privacy< Icona che rappresenta i rischi per la privacy.
Rischi associati all'input
Inferenza
Privacy<
Amplificato dall'intelligenza artificiale generativa

Descrizione

Un attacco di inferenza di appartenenza interroga ripetutamente un modello per determinare se un dato input fa parte dell'addestramento del modello. Più precisamente, dato un modello addestrato e un campione di dati, un attaccante campiona lo spazio di input, osservando le uscite per dedurre se quel campione faceva parte dell'addestramento del modello.

Perché l'inferenza dell'appartenenza è una preoccupazione per i modelli di fondazione?

Identificare se un campione di dati è stato utilizzato per l'addestramento può rivelare quali dati sono stati utilizzati per addestrare un modello. Possibilmente dando ai concorrenti la possibilità di capire come è stato addestrato un modello e l'opportunità di replicare il modello o di manometterlo. I modelli che includono dati pubblicamente disponibili sono più a rischio di tali attacchi.

Argomento principale: Atlas rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni