0 / 0
Volver a la versión inglesa de la documentación
Riesgo de atribución de origen no fiable para IA
Última actualización: 12 dic 2024
Riesgo de atribución de origen no fiable para IA
Explicabilidad Icono que representa los riesgos de explicabilidad.
Riesgos asociados a la producción
Explicabilidad
Nuevo en IA generativa

Descripción

La atribución de origen es la capacidad del sistema de IA para describir a partir de qué datos de entrenamiento generó una parte o toda su salida. Puesto que las técnicas actuales se basan en aproximaciones, estas atribuciones pueden ser incorrectas.

¿Por qué la atribución de fuentes no fiables es una preocupación para los modelos de fundación?

Las atribuciones de baja calidad dificultan que los usuarios, los validadores de modelos y los auditores comprendan el modelo y confíen en él.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa aún están evolucionando o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información