0 / 0
Torna alla versione inglese della documentazione
Rischio di uscita nociva per l'IA

Rischio di uscita nociva per l'IA

Allineamento Icona che rappresenta i rischi di allineamento.
Rischi associati alla produzione
Allineamento dei valori
Nuovo all'IA generativa

Descrizione

Un modello potrebbe generare un linguaggio che porta a danni fisici. Il linguaggio potrebbe includere affermazioni apertamente violente, velatamente pericolose o comunque indirettamente non sicure.

Perché l'output dannoso è un problema per i modelli di fondazione?

Un modello che genera output dannosi può causare danni fisici immediati o creare pregiudizi che potrebbero portare a danni futuri.

Argomento principale: Atlante del rischio AI

Facciamo degli esempi che sono stati trattati dalla stampa per spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e fare riferimento ad essi può aiutare il lettore a comprendere i rischi potenziali e a lavorare per mitigarli. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni