Descriptif
Les biais historiques et sociétaux présents dans les données sont utilisés pour former et affiner le modèle.
Pourquoi le biais des données est-il un problème pour les modèles de fondation ?
L'entraînement d'un système d'IA sur des données biaisées, telles que des préjugés historiques ou sociétaux, peut conduire à des résultats biaisés ou faussés susceptibles de représenter injustement ou de discriminer certains groupes ou individus.
Préjugés en matière de soins de santé
Selon l'article de recherche sur le renforcement des disparités en médecine, l'utilisation de données et d'applications d'IA pour transformer la façon dont les gens reçoivent des soins de santé n'est aussi solide que les données qui sous-tendent l'effort. Par exemple, l'utilisation de données de formation où les minorités sont peu représentées ou qui reflètent des soins déjà inégaux peut conduire à une aggravation des inégalités en matière de santé.
Thème parent: Atlas des risques de l'IA
Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.