Descrizione
Le allucinazioni generano contenuti di fatto inesatti o non veritieri rispetto ai dati di addestramento o agli input del modello. A volte si parla anche di mancanza di fedeltà o di mancanza di fondatezza.
Perché l'allucinazione è una preoccupazione per i modelli di fondazione?
Le allucinazioni possono essere fuorvianti. Questi falsi risultati possono trarre in inganno gli utenti ed essere incorporati negli artefatti a valle, diffondendo ulteriormente la disinformazione. Un output falso può danneggiare sia i proprietari che gli utenti dei modelli AI. In alcuni casi, le allucinazioni possono essere particolarmente gravi.
Casi legali falsi
Secondo l'articolo, un avvocato ha citato casi falsi e citazioni generati da ChatGPT in un documento legale depositato in un tribunale federale. Gli avvocati hanno consultato ChatGPT per integrare la loro ricerca legale per una richiesta di risarcimento del danno aereo. Successivamente, l'avvocato ha chiesto a ChatGPT se i casi forniti fossero falsi. Il chatbot ha risposto che erano reali e "possono essere trovati su database di ricerca legale come Westlaw e LexisNexis." L'avvocato non ha controllato i casi e il tribunale li ha sanzionati.
Argomento principale: Atlas rischio AI
Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.