0 / 0
Volver a la versión inglesa de la documentación
Riesgo de atribución no rastreable para IA
Última actualización: 12 dic 2024
Riesgo de atribución no rastreable para IA
Explicabilidad Icono que representa los riesgos de explicabilidad.
Riesgos asociados a la producción
Explicabilidad
Amplificado por IA generativa

Descripción

El contenido de los datos de entrenamiento utilizados para generar la salida del modelo no es accesible.

¿Por qué la atribución no rastreable es una preocupación para los modelos de base?

Sin la posibilidad de acceder al contenido de los datos de formación, la posibilidad de utilizar técnicas de atribución de fuentes puede verse gravemente limitada o resultar imposible. Esto dificulta que los usuarios, los validadores de modelos y los auditores entiendan el modelo y confíen en él.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información