Descripción
El sesgo de decisión se produce cuando un grupo se ve injustamente favorecido respecto a otro debido a las decisiones del modelo. Esto podría deberse a sesgos en los datos y también amplificarse como resultado del entrenamiento del modelo.
¿Por qué el sesgo de decisión es una preocupación para los modelos de fundación?
La parcialidad puede perjudicar a las personas afectadas por las decisiones del modelo.
Grupos desfavorecidos
El estudio 2018 Gender Shades demostró que los algoritmos de aprendizaje automático pueden discriminar en función de clases como raza y género. Los investigadores evaluaron sistemas comerciales de clasificación de género que son vendidos por empresas como Microsoft, IBMy Amazon y mostraron que las mujeres de piel más oscura son el grupo más mal clasificado (con tasas de error de hasta el 35%). En comparación, los índices de error para los de piel más ligera no superaron el 1%.
Tema principal: Atlas de riesgo de IA
Proporcionamos ejemplos cubiertos por la prensa para ayudar a explicar muchos de los riesgos de los modelos básicos. Muchos de estos eventos cubiertos por la prensa están todavía en evolución o se han resuelto, y hacer referencia a ellos puede ayudar al lector a comprender los riesgos potenciales y trabajar hacia las mitigaciones. El resaltado de estos ejemplos sólo tiene fines ilustrativos.