0 / 0
Volver a la versión inglesa de la documentación
Riesgo de datos de entrenamiento inaccesibles para IA
Última actualización: 12 dic 2024
Riesgo de datos de entrenamiento inaccesibles para IA
Explicabilidad Icono que representa los riesgos de explicabilidad.
Riesgos asociados a la producción
Explicabilidad
Amplificado por IA generativa

Descripción

Sin acceso a los datos de entrenamiento, los tipos de explicaciones que puede proporcionar un modelo son limitados y es más probable que sean incorrectos.

¿Por qué los datos de entrenamiento inaccesibles son una preocupación para los modelos de base?

Las explicaciones de baja calidad sin datos de origen dificultan a los usuarios, validadores de modelos y auditores comprender y confiar en el modelo.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información