Descrizione
Un attacco di inferenza di appartenenza interroga ripetutamente un modello per determinare se un dato input fa parte dell'addestramento del modello. Più precisamente, dato un modello addestrato e un campione di dati, un attaccante campiona lo spazio di input, osservando le uscite per dedurre se quel campione faceva parte dell'addestramento del modello.
Perché l'inferenza dell'appartenenza è una preoccupazione per i modelli di fondazione?
Identificare se un campione di dati è stato utilizzato per l'addestramento può rivelare quali dati sono stati utilizzati per addestrare un modello. Possibilmente dando ai concorrenti la possibilità di capire come è stato addestrato un modello e l'opportunità di replicare il modello o di manometterlo. I modelli che includono dati pubblicamente disponibili sono più a rischio di tali attacchi.
Argomento principale: Atlas rischio AI
Facciamo degli esempi che sono stati trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.