0 / 0
Volver a la versión inglesa de la documentación
Riesgo de alucinación para IA

Riesgo de alucinación para IA

Riesgos asociados a la producción
Alineación de valores
Novedad en la IA generativa

Descripción

Generación de contenidos objetivamente inexactos o no veraces.

¿Por qué la alucinación es una preocupación para los modelos de fundación?

La salida falsa puede inducir a error a los usuarios y se puede incorporar en artefactos en sentido descendente, difundiendo más información errónea. La salida falsa puede dañar tanto a los propietarios como a los usuarios de los modelos de IA. Además, las entidades empresariales podrían enfrentarse a multas, daños a la reputación, interrupción de las operaciones y otras consecuencias legales.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Casos legales falsos

Según el artículo de la fuente, un abogado citó casos y citas falsas que son generadas por ChatGPT en un escrito legal que se presenta en el tribunal federal. Los abogados consultaron a ChatGPT para complementar su investigación legal para un reclamo de lesiones de aviación. Posteriormente, el abogado preguntó a ChatGPT si los casos proporcionados eran falsos. El chatbot respondió que eran reales y "se pueden encontrar en bases de datos de investigación legal como Westlaw y LexisNexis". El abogado no revisó los casos, y el tribunal los sancionó.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información