0 / 0
Volver a la versión inglesa de la documentación
Riesgo de sesgo de los datos para la IA
Última actualización: 12 dic 2024
Riesgo de sesgo de los datos para la IA
Equidad Icono que representa los riesgos de equidad.
Riesgos asociados a la aportación
Fase de formación y puesta a punto
Equidad
Amplificado por la IA generativa

Descripción

Los sesgos históricos y sociales presentes en los datos se utilizan para entrenar y afinar el modelo.

¿Por qué preocupa el sesgo de los datos en los modelos de fundación?

Entrenar un sistema de IA con datos sesgados, como los históricos o los sociales, puede dar lugar a resultados sesgados o sesgados que pueden representar injustamente o discriminar de otro modo a determinados grupos o individuos.

Imagen de fondo de los riesgos asociados a la entrada
Ejemplo

Sesgo sanitario

Según el artículo de investigación sobre el refuerzo de las disparidades en medicina, el uso de datos y aplicaciones de IA para transformar el modo en que las personas reciben atención sanitaria solo es tan sólido como los datos que respaldan el esfuerzo. Por ejemplo, utilizar datos de formación con escasa representación de las minorías o que reflejen lo que ya es una atención desigual puede conducir a un aumento de las desigualdades sanitarias.

Tema principal: Atlas de riesgo de la IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos de fundación. Muchos de estos sucesos de los que se ha hecho eco la prensa siguen evolucionando o ya se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y a trabajar para mitigarlos. Resaltar estos ejemplos son sólo para fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información