Riesgo de repetición de formación en sentido descendente para IA
Descripción
Utilización de resultados indeseables (por ejemplo, inexactos, inadecuados, contenido del usuario) de aplicaciones en sentido descendente para fines de repetición de formación.
¿Por qué el reciclaje en sentido descendente es una preocupación para los modelos de fundación?
Reutilizar la salida descendente para volver a entrenar un modelo sin implementar una revisión humana adecuada aumenta las posibilidades de que se incorporen resultados indeseables en los datos de entrenamiento o ajuste del modelo. Esto, a su vez, puede generar una salida aún más indeseable. Un comportamiento de modelo inadecuado puede dar lugar a que las entidades empresariales se enfrenten a consecuencias legales o daños a la reputación. El incumplimiento de las leyes de transferencia de datos puede resultar en multas y otras consecuencias legales.
![Imagen de fondo para riesgos asociados con la entrada](images/background-input-example.jpg)
Contracción del modelo debido al entrenamiento utilizando contenido generado por IA
Como se indica en el artículo fuente, un grupo de investigadores del Reino Unido y Canadá investigó el problema de utilizar contenido generado por IA para el entrenamiento en lugar de contenido generado por el ser humano. Encontraron que los grandes modelos de lenguaje detrás de la tecnología podrían ser entrenados en otros contenidos generados por IA. A medida que los datos generados continúan extendiéndose en masa a través de Internet puede resultar en un fenómeno que acuñaron como "colapso del modelo".
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.