0 / 0
Volver a la versión inglesa de la documentación
Riesgo de dependencia excesiva o insuficiente de la IA
Última actualización: 12 dic 2024
Riesgo de dependencia excesiva o insuficiente de la IA
Alineación Icono que representa los riesgos de alineación.
Riesgos asociados a la producción
Alineación de valores
Amplificado por IA generativa

Descripción

En las tareas de toma de decisiones asistidas por IA, la confianza mide hasta qué punto una persona confía (y potencialmente actúa) en los resultados de un modelo. El exceso de confianza se produce cuando una persona deposita demasiada confianza en un modelo, aceptando su resultado cuando éste es probablemente incorrecto. La infra-confianza es lo contrario, cuando la persona no confía en el modelo pero debería hacerlo.

¿Por qué preocupa el exceso o la falta de confianza en los modelos de fundación?

En las tareas en las que los humanos toman decisiones basándose en sugerencias basadas en la IA, la confianza excesiva o insuficiente puede llevar a una toma de decisiones deficiente debido a la confianza equivocada en el sistema de IA, con consecuencias negativas que aumentan con la importancia de la decisión.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información