0 / 0
Torna alla versione inglese della documentazione
Rischio di attacco di inferenza di appartenenza per AI
Ultimo aggiornamento: 10 feb 2025
Rischio di attacco di inferenza di appartenenza per AI
Privacy< Icona che rappresenta i rischi per la privacy.
Privacy<
Rischi di inferenza
Amplificato dall'intelligenza artificiale generativa

Descrizione

Un attacco di inferenza di appartenenza interroga ripetutamente un modello per determinare se un dato input fa parte dell'addestramento del modello. Più precisamente, dato un modello addestrato e un campione di dati, un attaccante campiona lo spazio di input, osservando le uscite per dedurre se quel campione faceva parte dell'addestramento del modello.

Perché l'inferenza dell'appartenenza è una preoccupazione per i modelli di fondazione?

Identificare se un campione di dati è stato utilizzato per l'addestramento può rivelare quali dati sono stati utilizzati per addestrare un modello. Possibilmente dando ai concorrenti la possibilità di capire come è stato addestrato un modello e l'opportunità di replicare il modello o di manometterlo. I modelli che includono dati pubblicamente disponibili sono più a rischio di tali attacchi.

Argomento principale: Atlas rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.