Descripción
Los modelos generativos de IA podrían utilizarse intencionadamente para generar contenidos odiosos, abusivos y profanos (HAP) u obscenos.
¿Por qué la toxicidad de la propagación es una preocupación para los modelos de fundación?
El contenido tóxico podría afectar negativamente el bienestar de sus destinatarios. Un modelo que tiene este potencial debe ser gobernado adecuadamente.
Generación de contenido dañino
Según el artículo de la fuente, se descubrió que una aplicación de chatbot de IA generaba contenido dañino sobre el suicidio, incluidos los métodos de suicidio, con un mínimo de incitación. Un belga murió por suicidio después de pasar seis semanas hablando con ese chatbot. El chatbot suministró respuestas cada vez más dañinas a lo largo de sus conversaciones y lo animó a acabar con su vida.
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.