Risque de biais de données pour l'IA
Descriptif
Les biais historiques, de représentation et sociétaux présents dans les données utilisées pour entraîner et affiner le modèle peuvent avoir un effet négatif sur le comportement du modèle.
Pourquoi le biais de données est-il une préoccupation pour les modèles de base?
La formation d'un système d'IA sur les données avec biais, comme le biais historique ou le biais de représentation, pourrait conduire à des résultats biaisés ou biaisés qui pourraient représenter injustement ou autrement discriminer certains groupes ou individus. En plus des incidences négatives sur la société, les entités commerciales pourraient être confrontées à des conséquences juridiques ou à des préjudices de réputation résultant de résultats de modèles biaisés.

Biais de santé
Selon l'article de recherche sur le renforcement des disparités en médecine en utilisant les données et les applications de l'IA pour transformer la façon dont les personnes reçoivent des soins de santé est seulement aussi forte que les données derrière l'effort. Par exemple, l'utilisation de données de formation avec une faible représentation des minorités ou qui reflète ce qui est déjà une inégalité des soins peut entraîner une augmentation des inégalités en matière de santé.
Rubrique parent: Atlas des risques liés à l'IA
Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.