Descrizione
Le informazioni riservate potrebbero essere incluse nel messaggio inviato al modello.
Perché i dati riservati sono una preoccupazione per i modelli di base?
Se non viene sviluppato correttamente per proteggere i dati riservati, il modello potrebbe rivelare informazioni riservate o IP nell'output generato. Inoltre, le informazioni riservate degli utenti finali potrebbero essere involontariamente raccolte e archiviate.
Divulgazione di informazioni riservate
Secondo l'articolo di origine, i dipendenti di Samsung hanno divulgato informazioni riservate a OpenAI tramite il loro uso di ChatGPT. In un'istanza, un dipendente ha incollato il codice sorgente riservato per verificare la presenza di errori. In un altro caso, un dipendente ha condiviso il codice con ChatGPT e ha "richiesto l'ottimizzazione del codice". Un terzo ha condiviso una registrazione di una riunione da convertire in note per una presentazione. Samsung ha un utilizzo interno limitato di ChatGPT in risposta a questi incidenti, ma è improbabile che siano in grado di richiamare i loro dati. Inoltre, l'articolo ha evidenziato che in risposta al rischio di perdita di informazioni riservate e altre informazioni sensibili, aziende come Apple, JPMorgan Chase. Deutsche Bank, Verizon, Walmart, Samsung, Amazon e Accenture hanno posto diverse restrizioni sull'utilizzo di ChatGPT.
Argomento principale: Atlas rischio AI
Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.