0 / 0
Volver a la versión inglesa de la documentación
Riesgo de repetición de formación en sentido descendente para IA

Riesgo de repetición de formación en sentido descendente para IA

Riesgos asociados con la entrada
Fase de entrenamiento y ajuste
Alineación de valores
Novedad en la IA generativa

Descripción

Utilización de resultados indeseables (por ejemplo, inexactos, inadecuados, contenido del usuario) de aplicaciones en sentido descendente para fines de repetición de formación.

¿Por qué el reciclaje en sentido descendente es una preocupación para los modelos de fundación?

Reutilizar la salida descendente para volver a entrenar un modelo sin implementar una revisión humana adecuada aumenta las posibilidades de que se incorporen resultados indeseables en los datos de entrenamiento o ajuste del modelo. Esto, a su vez, puede generar una salida aún más indeseable. Un comportamiento de modelo inadecuado puede dar lugar a que las entidades empresariales se enfrenten a consecuencias legales o daños a la reputación. El incumplimiento de las leyes de transferencia de datos puede resultar en multas y otras consecuencias legales.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Contracción del modelo debido al entrenamiento utilizando contenido generado por IA

Como se indica en el artículo fuente, un grupo de investigadores del Reino Unido y Canadá investigó el problema de utilizar contenido generado por IA para el entrenamiento en lugar de contenido generado por el ser humano. Encontraron que los grandes modelos de lenguaje detrás de la tecnología podrían ser entrenados en otros contenidos generados por IA. A medida que los datos generados continúan extendiéndose en masa a través de Internet puede resultar en un fenómeno que acuñaron como "colapso del modelo".

Tema principal: Atlas de riesgo de IA

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información