À propos des cookies sur ce site Pour fonctionner correctement, nos sites Internet nécessitent certains cookies (requis). En outre, d'autres cookies peuvent être utilisés avec votre consentement pour analyser l'utilisation d'un site, améliorer l'expérience des utilisateurs et à des fins publicitaires. Pour plus informations, passez en revue vos options de préférences en. En visitant notre site Web, vous acceptez que nous traitions les informations comme décrit dans ladéclaration de confidentialité d’IBM. Pour faciliter la navigation, vos préférences en matière de cookie seront partagées dans les domaines Web d'IBM énumérés ici.
Risque de biais de sortie pour l'IA
Dernière mise à jour : 10 févr. 2025
Descriptif
Le contenu généré peut représenter injustement certains groupes ou individus.
Pourquoi le biais de sortie est-il une préoccupation pour les modèles de base?
Le biais peut nuire aux utilisateurs des modèles d'IA et amplifier les comportements discriminatoires existants.

Exemple
Images générées biaisées
Lensa AI est une application mobile avec des fonctionnalités génératives qui sont entraînées sur Stable Diffusion qui peut générer des "Avatars magiques" basés sur des images que les utilisateurs téléchargent d'eux-mêmes. Selon le rapport de la source, certains utilisateurs ont découvert que les avatars générés sont sexualisés et racialisés.
Sources :
Rubrique parent: Atlas des risques liés à l'IA
Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.
La rubrique a-t-elle été utile ?
0/1000