0 / 0
Torna alla versione inglese della documentazione
Rischio di attribuzione della fonte non affidabile per l'intelligenza artificiale
Ultimo aggiornamento: 12 dic 2024
Rischio di attribuzione della fonte non affidabile per l'intelligenza artificiale
Esplicabilità Icona che rappresenta i rischi di spiegabilità.
Rischi associati alla produzione
Esplicabilità
Nuovo all'IA generativa

Descrizione

L'attribuzione di origine è la capacità del sistema AI di descrivere da quali dati di addestramento ha generato una parte o tutto il suo output. Poiché le tecniche correnti sono basate su approssimazioni, queste attribuzioni potrebbero non essere corrette.

Perché l'attribuzione di fonti inaffidabili è una preoccupazione per i modelli di fondazione?

Attribuzioni di bassa qualità rendono difficile la comprensione e la fiducia nel modello da parte di utenti, validatori di modelli e revisori.

Argomento principale: Atlas rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni