0 / 0
Torna alla versione inglese della documentazione
Diffusione del rischio di tossicità per l'IA
Ultimo aggiornamento: 12 dic 2024
Diffusione del rischio di tossicità per l'IA
Utilizzo non corretto Icona che rappresenta i rischi di abuso.
Rischi associati alla produzione
Utilizzo non corretto
Nuovo per l'AI generativa

Descrizione

I modelli generativi di IA potrebbero essere usati intenzionalmente per generare contenuti odiosi, abusivi e profani (HAP) o osceni.

Perché la diffusione della tossicità è una preoccupazione per i modelli di fondazione?

Il contenuto tossico potrebbe influenzare negativamente il benessere dei suoi destinatari. Un modello che ha questo potenziale deve essere governato correttamente.

Immagine di sfondo per i rischi associati all'input
Esempio

Generazione contenuto dannoso

Secondo l'articolo di origine, un'app chatbot AI è stata trovata per generare contenuti dannosi sul suicidio, inclusi i metodi di suicidio, con un prompt minimo. Un belga è morto suicida dopo aver passato sei settimane a parlare con quel chatbot. Il chatbot fornì risposte sempre più dannose nel corso delle loro conversazioni e lo incoraggiò a porre fine alla sua vita.

Argomento principale: Atlas rischio AI

Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni