0 / 0
Retourner à la version anglaise de la documentation
Risque de biais de données pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque de biais de données pour l'IA
Equité Icône représentant les risques en matière d'équité.
Risques liés à la saisie
Phase de formation et de mise au point
Equité
Amplifié par l'IA générative

Descriptif

Les biais historiques et sociétaux présents dans les données sont utilisés pour former et affiner le modèle.

Pourquoi le biais des données est-il un problème pour les modèles de fondation ?

L'entraînement d'un système d'IA sur des données biaisées, telles que des préjugés historiques ou sociétaux, peut conduire à des résultats biaisés ou faussés susceptibles de représenter injustement ou de discriminer certains groupes ou individus.

Image de fond pour les risques associés à la saisie
Exemple

Préjugés en matière de soins de santé

Selon l'article de recherche sur le renforcement des disparités en médecine, l'utilisation de données et d'applications d'IA pour transformer la façon dont les gens reçoivent des soins de santé n'est aussi solide que les données qui sous-tendent l'effort. Par exemple, l'utilisation de données de formation où les minorités sont peu représentées ou qui reflètent des soins déjà inégaux peut conduire à une aggravation des inégalités en matière de santé.

Thème parent: Atlas des risques de l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus