0 / 0
Volver a la versión inglesa de la documentación
Riesgo de sesgo de decisión para IA
Última actualización: 12 dic 2024
Riesgo de sesgo de decisión para IA
Equidad Icono que representa los riesgos de equidad.
Riesgos asociados a la producción
Equidad
Riesgo de IA tradicional

Descripción

El sesgo de decisión se produce cuando un grupo se ve injustamente favorecido respecto a otro debido a las decisiones del modelo. Esto podría deberse a sesgos en los datos y también amplificarse como resultado del entrenamiento del modelo.

¿Por qué el sesgo de decisión es una preocupación para los modelos de fundación?

La parcialidad puede perjudicar a las personas afectadas por las decisiones del modelo.

Imagen de fondo para riesgos asociados con la entrada
Ejemplo

Grupos desfavorecidos

El estudio 2018 Gender Shades demostró que los algoritmos de aprendizaje automático pueden discriminar en función de clases como raza y género. Los investigadores evaluaron sistemas comerciales de clasificación de género que son vendidos por empresas como Microsoft, IBMy Amazon y mostraron que las mujeres de piel más oscura son el grupo más mal clasificado (con tasas de error de hasta el 35%). En comparación, los índices de error para los de piel más ligera no superaron el 1%.

Tema principal: Atlas de riesgo de IA

Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información