Rischio di allucinazioni per l'IA
Descrizione
Generazione di contenuti di fatto inesatti o non veritieri.
Perché l'allucinazione è una preoccupazione per i modelli di fondazione?
Un output falso può indurre in errore gli utenti ed essere incorporato nelle risorse utente a valle, diffondendo ulteriormente la disinformazione. Un output falso può danneggiare sia i proprietari che gli utenti dei modelli AI. Inoltre, le entità aziendali potrebbero subire multe, danni di reputazione, interruzione delle operazioni e altre conseguenze legali.
![Immagine di sfondo per i rischi associati all'input](images/background-output-example.jpg)
Casi legali falsi
Secondo l'articolo, un avvocato ha citato casi falsi e citazioni generati da ChatGPT in un documento legale depositato in un tribunale federale. Gli avvocati hanno consultato ChatGPT per integrare la loro ricerca legale per una richiesta di risarcimento del danno aereo. Successivamente, l'avvocato ha chiesto a ChatGPT se i casi forniti fossero falsi. Il chatbot ha risposto che erano reali e "possono essere trovati su database di ricerca legale come Westlaw e LexisNexis." L'avvocato non ha controllato i casi e il tribunale li ha sanzionati.
Argomento principale: Atlas rischio AI
Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.