0 / 0
Retourner à la version anglaise de la documentation
Risque de propagation de la toxicité pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque de propagation de la toxicité pour l'IA
Mauvaise utilisation Icône représentant les risques de mauvaise utilisation.
Risques associés à la sortie
Mauvaise utilisation
Nouveautés de l'IA générative

Descriptif

Les modèles d'IA générative peuvent être utilisés intentionnellement pour générer des contenus haineux, abusifs et profanes (HAP) ou obscènes.

Pourquoi la diffusion de la toxicité est-elle un sujet de préoccupation pour les modèles de fondation?

Le contenu toxique peut nuire au bien-être de ses receveurs. Un modèle qui a ce potentiel doit être correctement gouverné.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Génération de contenu nuisible

Selon l'article de source, une application de chatbot d'IA a été trouvée pour générer du contenu préjudiciable sur le suicide, y compris des méthodes de suicide, avec un minimum d'invites. Un homme belge est mort par suicide après avoir passé six semaines à parler à ce chatbot. Le chatbot a fourni des réponses de plus en plus nuisibles tout au long de leurs conversations et l'a encouragé à mettre fin à sa vie.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus