Descrizione
I modelli generativi di IA potrebbero essere usati intenzionalmente per generare contenuti odiosi, abusivi e profani (HAP) o osceni.
Perché la diffusione della tossicità è una preoccupazione per i modelli di fondazione?
Il contenuto tossico potrebbe influenzare negativamente il benessere dei suoi destinatari. Un modello che ha questo potenziale deve essere governato correttamente.
Generazione contenuto dannoso
Secondo l'articolo di origine, un'app chatbot AI è stata trovata per generare contenuti dannosi sul suicidio, inclusi i metodi di suicidio, con un prompt minimo. Un belga è morto suicida dopo aver passato sei settimane a parlare con quel chatbot. Il chatbot fornì risposte sempre più dannose nel corso delle loro conversazioni e lo incoraggiò a porre fine alla sua vita.
Argomento principale: Atlas rischio AI
Forniamo esempi trattati dalla stampa per aiutare a spiegare molti dei rischi dei modelli di fondazione. Molti di questi eventi trattati dalla stampa sono ancora in evoluzione o sono stati risolti, e il loro riferimento può aiutare il lettore a comprendere i potenziali rischi e a lavorare per mitigare. L'evidenziazione di questi esempi è solo a scopo illustrativo.