0 / 0
Torna alla versione inglese della documentazione
Rischio di allucinazioni per l'IA
Ultimo aggiornamento: 12 dic 2024
Rischio di allucinazioni per l'IA
Robustezza Icona che rappresenta i rischi di robustezza.
Rischi associati alla produzione
Affidabilità
Nuovo per l'AI generativa

Descrizione

Le allucinazioni generano contenuti di fatto inesatti o non veritieri rispetto ai dati di addestramento o agli input del modello. A volte si parla anche di mancanza di fedeltà o di mancanza di fondatezza.

Perché l'allucinazione è una preoccupazione per i modelli di fondazione?

Le allucinazioni possono essere fuorvianti. Questi falsi risultati possono trarre in inganno gli utenti ed essere incorporati negli artefatti a valle, diffondendo ulteriormente la disinformazione. Un output falso può danneggiare sia i proprietari che gli utenti dei modelli AI. In alcuni casi, le allucinazioni possono essere particolarmente gravi.

Immagine di sfondo per i rischi associati all'input
Esempio

Casi legali falsi

Secondo l'articolo, un avvocato ha citato casi falsi e citazioni generati da ChatGPT in un documento legale depositato in un tribunale federale. Gli avvocati hanno consultato ChatGPT per integrare la loro ricerca legale per una richiesta di risarcimento del danno aereo. Successivamente, l'avvocato ha chiesto a ChatGPT se i casi forniti fossero falsi. Il chatbot ha risposto che erano reali e "possono essere trovati su database di ricerca legale come Westlaw e LexisNexis." L'avvocato non ha controllato i casi e il tribunale li ha sanzionati.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni