Descrizione
Quando le informazioni di identificazione personale (PII) o le informazioni personali sensibili (SPI) sono utilizzate nei dati di addestramento, nei dati di fine-tuning o come parte del prompt, i modelli potrebbero rivelare tali dati nell'output generato. La rivelazione di informazioni personali è un tipo di fuga di dati.
Perché l'esposizione di informazioni personali è un problema per i modelli di fondazione?
La condivisione della PI incide sui diritti delle persone e le rende più vulnerabili.
Esposizione di informazioni personali
Secondo l'articolo di partenza, ChatGPT ha subito un bug e ha esposto i titoli e la cronologia delle chat degli utenti attivi ad altri utenti. In seguito, OpenAI ha condiviso che sono stati esposti ancora più dati privati di un piccolo numero di utenti, tra cui il nome e il cognome dell'utente attivo, l'indirizzo e-mail, l'indirizzo di pagamento, le ultime quattro cifre del numero di carta di credito e la data di scadenza della carta di credito. Inoltre, è stato riferito che anche le informazioni relative ai pagamenti dell'1.2% degli abbonati a ChatGPT Plus sono state esposte durante l'interruzione.
Argomento principale: Atlante del rischio AI
Facciamo degli esempi che sono stati trattati dalla stampa per spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.