0 / 0
Retourner à la version anglaise de la documentation
Risque de biais de données pour l'IA

Risque de biais de données pour l'IA

Risques associés à l'entrée
Phase de formation et d'optimisation
Équité
Amplifié par l'IA générative

Descriptif

Les biais historiques, de représentation et sociétaux présents dans les données utilisées pour entraîner et affiner le modèle peuvent avoir un effet négatif sur le comportement du modèle.

Pourquoi le biais de données est-il une préoccupation pour les modèles de base?

La formation d'un système d'IA sur les données avec biais, comme le biais historique ou le biais de représentation, pourrait conduire à des résultats biaisés ou biaisés qui pourraient représenter injustement ou autrement discriminer certains groupes ou individus. En plus des incidences négatives sur la société, les entités commerciales pourraient être confrontées à des conséquences juridiques ou à des préjudices de réputation résultant de résultats de modèles biaisés.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Biais de santé

Selon l'article de recherche sur le renforcement des disparités en médecine en utilisant les données et les applications de l'IA pour transformer la façon dont les personnes reçoivent des soins de santé est seulement aussi forte que les données derrière l'effort. Par exemple, l'utilisation de données de formation avec une faible représentation des minorités ou qui reflète ce qui est déjà une inégalité des soins peut entraîner une augmentation des inégalités en matière de santé.

Rubrique parent: Atlas des risques liés à l'IA

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus