0 / 0
Retourner à la version anglaise de la documentation
Risque de biais de sortie pour l'IA

Risque de biais de sortie pour l'IA

Risques associés à la sortie
Équité
Nouveautés de l'IA générative

Descriptif

Le contenu généré peut représenter injustement certains groupes ou individus.

Pourquoi le biais de sortie est-il une préoccupation pour les modèles de base?

Le biais peut nuire aux utilisateurs des modèles d'IA et amplifier les comportements discriminatoires existants. Les entités métier peuvent être confrontées à des dommages de réputation, à des perturbations des opérations et à d'autres conséquences.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Images générées biaisées

Lensa AI est une application mobile avec des fonctionnalités génératives qui sont entraînées sur Stable Diffusion qui peut générer des "Avatars magiques" basés sur des images que les utilisateurs téléchargent d'eux-mêmes. Selon le rapport de la source, certains utilisateurs ont découvert que les avatars générés sont sexualisés et racialisés.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus