Descripción
Cuando un modelo da consejos sin tener suficiente información, lo que puede causar daños si se siguen los consejos.
¿Por qué el asesoramiento incompleto preocupa a los modelos de fundación?
Una persona podría actuar siguiendo un consejo incompleto o preocuparse por una situación que no le es aplicable debido al carácter excesivamente generalizado de los contenidos generados. Por ejemplo, un modelo podría proporcionar consejos o recomendaciones médicas, financieras y jurídicas incorrectas que el usuario final podría poner en práctica, dando lugar a acciones perjudiciales.
Consejos equívocos
Según el artículo de origen, un chatbot de IA creado por la ciudad de Nueva York para ayudar a los propietarios de pequeñas empresas proporcionaba consejos incorrectos y/o perjudiciales que tergiversaban las políticas locales y aconsejaban a las empresas infringir la ley. El chatbot sugería falsamente que los comercios pueden depositar la basura en bolsas negras y que no están obligados a compostar, lo que contradice dos de las principales iniciativas de la ciudad en materia de residuos. Además, a la pregunta de si un restaurante podía servir queso mordisqueado por un roedor, respondió afirmativamente.
Tema principal: Atlas de riesgo de la IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.