0 / 0
Retourner à la version anglaise de la documentation
Risque d'hallucination pour l'IA

Risque d'hallucination pour l'IA

Risques associés à la sortie
Alignement des valeurs
Nouveautés de l'IA générative

Descriptif

Génération de contenu factuellement inexact ou mensonger.

Pourquoi l'hallucination est-elle une préoccupation pour les modèles de fondation?

Une sortie fausse peut induire les utilisateurs en erreur et être incorporée dans des artefacts en aval, ce qui permet de diffuser des informations erronées. Une sortie fausse peut nuire aux propriétaires et aux utilisateurs des modèles d'IA. En outre, les entités commerciales peuvent être confrontées à des amendes, à des atteintes à la réputation, à des perturbations des opérations et à d'autres conséquences juridiques.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Fausses affaires juridiques

Selon l'article source, un avocat a cité de fausses affaires et des citations qui sont générées par ChatGPT dans un mémoire juridique qui est déposé devant la cour fédérale. Les avocats ont consulté ChatGPT pour compléter leur recherche juridique en vue d'une réclamation pour dommage causé à l'aviation. Par la suite, l'avocat a demandé à ChatGPT si les affaires fournies étaient fausses. Le chatbot a répondu qu'ils étaient réels et " peuvent être trouvés sur des bases de données de recherche juridique telles que Westlaw et LexisNexis. L'avocat n'a pas vérifié les affaires, et le tribunal les a sanctionnées.

Rubrique parent: Atlas des risques liés à l'IA

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus