Descripción
El uso de resultados no deseados (por ejemplo, inexactos, inapropiados y contenidos de usuario) con fines de reentrenamiento puede dar lugar a un comportamiento inesperado del modelo.
¿Por qué el reentrenamiento inadecuado es un problema para los modelos de cimentación?
La reutilización de los resultados generados para el reentrenamiento de un modelo sin un control humano adecuado aumenta las posibilidades de que se incorporen resultados no deseados a los datos de entrenamiento o ajuste del modelo. A su vez, este modelo puede generar resultados aún más indeseables.
Contracción del modelo debido al entrenamiento utilizando contenido generado por IA
Como se indica en el artículo fuente, un grupo de investigadores del Reino Unido y Canadá investigó el problema de utilizar contenido generado por IA para el entrenamiento en lugar de contenido generado por el ser humano. Encontraron que los grandes modelos de lenguaje detrás de la tecnología podrían ser entrenados en otros contenidos generados por IA. A medida que los datos generados se extienden en masa por Internet, puede producirse un fenómeno que han acuñado como "colapso del modelo"
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.