Volver a la versión inglesa de la documentación
Riesgo de ordenación de datos para IA
Riesgo de ordenación de datos para IA
Descripción
Cuando los datos de entrenamiento o ajuste se recopilan o preparan incorrectamente, el resultado puede ser una desalineación de los valores o la intención deseados de un modelo y el resultado real.
¿Por qué la ordenación de datos es una preocupación para los modelos de base?
La ordenación de datos incorrecta puede afectar negativamente a la forma en que se entrena un modelo, lo que da como resultado un modelo que no se comporta de acuerdo con los valores previstos. La corrección de problemas después de entrenar y desplegar el modelo puede ser insuficiente para garantizar un comportamiento adecuado. Un comportamiento de modelo inadecuado puede dar lugar a que las entidades empresariales se enfrenten a consecuencias legales o daños a la reputación.
Tema principal: Atlas de riesgo de IA