0 / 0
Volver a la versión inglesa de la documentación
Riesgo de alucinación para IA
Última actualización: 12 dic 2024
Riesgo de alucinación para IA
Robustez Icono que representa los riesgos de robustez.
Riesgos asociados a la producción
Solidez
Novedad en la IA generativa

Descripción

Las alucinaciones generan contenidos inexactos o falsos con respecto a los datos de entrenamiento o de entrada del modelo. A veces también se habla de falta de fidelidad o de falta de arraigo.

¿Por qué la alucinación es una preocupación para los modelos de fundación?

Las alucinaciones pueden ser engañosas. Estos resultados falsos pueden inducir a error a los usuarios e incorporarse a artefactos posteriores, propagando aún más la desinformación. La salida falsa puede dañar tanto a los propietarios como a los usuarios de los modelos de IA. En algunos usos, las alucinaciones pueden ser especialmente graves.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Casos legales falsos

Según el artículo de la fuente, un abogado citó casos y citas falsas que son generadas por ChatGPT en un escrito legal que se presenta en el tribunal federal. Los abogados consultaron a ChatGPT para complementar su investigación legal para un reclamo de lesiones de aviación. Posteriormente, el abogado preguntó a ChatGPT si los casos proporcionados eran falsos. El chatbot respondió que eran reales y "se pueden encontrar en bases de datos de investigación legal como Westlaw y LexisNexis". El abogado no revisó los casos, y el tribunal los sancionó.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información