0 / 0
Volver a la versión inglesa de la documentación
Riesgo de toxicidad de propagación para IA
Última actualización: 12 dic 2024
Riesgo de toxicidad de propagación para IA
Uso incorrecto Icono que representa los riesgos de uso indebido.
Riesgos asociados a la producción
Uso incorrecto
Novedad en la IA generativa

Descripción

Los modelos generativos de IA podrían utilizarse intencionadamente para generar contenidos odiosos, abusivos y profanos (HAP) u obscenos.

¿Por qué la toxicidad de la propagación es una preocupación para los modelos de fundación?

El contenido tóxico podría afectar negativamente el bienestar de sus destinatarios. Un modelo que tiene este potencial debe ser gobernado adecuadamente.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Generación de contenido dañino

Según el artículo de la fuente, se descubrió que una aplicación de chatbot de IA generaba contenido dañino sobre el suicidio, incluidos los métodos de suicidio, con un mínimo de incitación. Un belga murió por suicidio después de pasar seis semanas hablando con ese chatbot. El chatbot suministró respuestas cada vez más dañinas a lo largo de sus conversaciones y lo animó a acabar con su vida.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información