0 / 0
Torna alla versione inglese della documentazione
Rischio di allucinazioni per l'IA

Rischio di allucinazioni per l'IA

Rischi associati alla produzione
Allineamento valore
Nuovo per l'AI generativa

Descrizione

Generazione di contenuti di fatto inesatti o non veritieri.

Perché l'allucinazione è una preoccupazione per i modelli di fondazione?

Un output falso può indurre in errore gli utenti ed essere incorporato nelle risorse utente a valle, diffondendo ulteriormente la disinformazione. Un output falso può danneggiare sia i proprietari che gli utenti dei modelli AI. Inoltre, le entità aziendali potrebbero subire multe, danni di reputazione, interruzione delle operazioni e altre conseguenze legali.

Immagine di sfondo per i rischi associati all'input
Esempio

Casi legali falsi

Secondo l'articolo, un avvocato ha citato casi falsi e citazioni generati da ChatGPT in un documento legale depositato in un tribunale federale. Gli avvocati hanno consultato ChatGPT per integrare la loro ricerca legale per una richiesta di risarcimento del danno aereo. Successivamente, l'avvocato ha chiesto a ChatGPT se i casi forniti fossero falsi. Il chatbot ha risposto che erano reali e "possono essere trovati su database di ricerca legale come Westlaw e LexisNexis." L'avvocato non ha controllato i casi e il tribunale li ha sanzionati.

Argomento principale: Atlas rischio AI

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni