0 / 0
Volver a la versión inglesa de la documentación
Riesgo de reentrenamiento inadecuado para la IA
Última actualización: 06 feb 2025
Riesgo de reentrenamiento inadecuado para la IA
Alineación de valores
Riesgos de los datos de formación
Amplificado por IA generativa

Descripción

El uso de resultados no deseados (por ejemplo, contenido inexacto, inapropiado y del usuario) con fines de reentrenamiento puede dar lugar a un comportamiento inesperado del modelo.

¿Por qué es preocupante el reentrenamiento inadecuado para las modelos de fundaciones?

Reutilizar los resultados generados para reentrenar un modelo sin implementar una investigación humana adecuada aumenta las posibilidades de que se incorporen resultados no deseados en los datos de entrenamiento o ajuste del modelo. A su vez, este modelo puede generar resultados aún más indeseables.

Imagen de fondo para los riesgos asociados con los datos de formación
Ejemplo

Colapso de modelos debido a la formación con contenido generado por IA

Como se indica en el artículo original, un grupo de investigadores del Reino Unido y Canadá investigó el problema de utilizar contenido generado por IA para la formación en lugar de contenido generado por humanos. Descubrieron que los grandes modelos de lenguaje que hay detrás de la tecnología podrían entrenarse potencialmente con otros contenidos generados por IA. A medida que los datos generados continúan propagándose en masa por Internet, puede producirse un fenómeno que han denominado «colapso de modelos»

Tema principal: Atlas de riesgos de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos acontecimientos cubiertos por la prensa o bien aún están en evolución o bien se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. La mención de estos ejemplos es solo con fines ilustrativos.