Descripción
El uso de resultados no deseados (por ejemplo, contenido inexacto, inapropiado y del usuario) con fines de reentrenamiento puede dar lugar a un comportamiento inesperado del modelo.
¿Por qué es preocupante el reentrenamiento inadecuado para las modelos de fundaciones?
Reutilizar los resultados generados para reentrenar un modelo sin implementar una investigación humana adecuada aumenta las posibilidades de que se incorporen resultados no deseados en los datos de entrenamiento o ajuste del modelo. A su vez, este modelo puede generar resultados aún más indeseables.

Colapso de modelos debido a la formación con contenido generado por IA
Como se indica en el artículo original, un grupo de investigadores del Reino Unido y Canadá investigó el problema de utilizar contenido generado por IA para la formación en lugar de contenido generado por humanos. Descubrieron que los grandes modelos de lenguaje que hay detrás de la tecnología podrían entrenarse potencialmente con otros contenidos generados por IA. A medida que los datos generados continúan propagándose en masa por Internet, puede producirse un fenómeno que han denominado «colapso de modelos»
Tema principal: Atlas de riesgos de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos acontecimientos cubiertos por la prensa o bien aún están en evolución o bien se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. La mención de estos ejemplos es solo con fines ilustrativos.