0 / 0
Volver a la versión inglesa de la documentación
Riesgo de ordenación de datos para IA

Riesgo de ordenación de datos para IA

Riesgos asociados con la entrada
Fase de entrenamiento y ajuste
Alineación de valores
Amplificado por IA generativa

Descripción

Cuando los datos de entrenamiento o ajuste se recopilan o preparan incorrectamente, el resultado puede ser una desalineación de los valores o la intención deseados de un modelo y el resultado real.

¿Por qué la ordenación de datos es una preocupación para los modelos de base?

La ordenación de datos incorrecta puede afectar negativamente a la forma en que se entrena un modelo, lo que da como resultado un modelo que no se comporta de acuerdo con los valores previstos. La corrección de problemas después de entrenar y desplegar el modelo puede ser insuficiente para garantizar un comportamiento adecuado. Un comportamiento de modelo inadecuado puede dar lugar a que las entidades empresariales se enfrenten a consecuencias legales o daños a la reputación.

Tema principal: Atlas de riesgo de IA

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información