0 / 0
Volver a la versión inglesa de la documentación
Riesgo de salida perjudicial para la IA

Riesgo de salida perjudicial para la IA

Alineación Icono que representa los riesgos de alineación.
Riesgos asociados a la producción
Alineación de valores
Nuevo en IA generativa

Descripción

Un modelo puede generar un lenguaje que provoque daños físicos El lenguaje puede incluir afirmaciones abiertamente violentas, encubiertamente peligrosas o indirectamente inseguras.

¿Por qué preocupa la producción nociva en los modelos de fundación?

Un modelo que genere resultados perjudiciales puede causar daños físicos inmediatos o crear prejuicios que podrían provocar daños futuros.

Tema principal: Atlas de riesgo de la IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa aún están evolucionando o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información