0 / 0
Retourner à la version anglaise de la documentation
Risque de biais de décision pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque de biais de décision pour l'IA
Equité Icône représentant les risques en matière d'équité.
Risques associés à la sortie
Equité
Risque d'IA traditionnel

Descriptif

Il y a biais décisionnel lorsqu'un groupe est injustement avantagé par rapport à un autre en raison des décisions du modèle. Cela peut être dû à des biais dans les données et être amplifié par la formation du modèle.

Pourquoi le biais de décision est-il une préoccupation pour les modèles de fondation?

Les préjugés peuvent nuire aux personnes concernées par les décisions du modèle.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Groupes avantagés injustement

L'étude Gender Shades de 2018 a démontré que les algorithmes d'apprentissage automatique peuvent discriminer en fonction de classes telles que la race et le genre. Les chercheurs ont évalué les systèmes commerciaux de classification par sexe vendus par des sociétés telles que Microsoft, IBMet Amazon et ont montré que les femmes à la peau plus foncée sont le groupe le plus mal classé (avec des taux d'erreur allant jusqu'à 35%). En comparaison, les taux d'erreur pour les peaux plus légères n'étaient pas supérieurs à 1%.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus