Descriptif
Les hallucinations génèrent un contenu factuellement inexact ou mensonger par rapport aux données d'apprentissage ou d'entrée du modèle. On parle aussi parfois de manque de fidélité ou de manque d'ancrage.
Pourquoi l'hallucination est-elle une préoccupation pour les modèles de fondation?
Les hallucinations peuvent être trompeuses. Ces résultats erronés peuvent induire les utilisateurs en erreur et être incorporés dans des artefacts en aval, ce qui contribue à la diffusion d'informations erronées. Une sortie fausse peut nuire aux propriétaires et aux utilisateurs des modèles d'IA. Dans certains cas, les hallucinations peuvent être particulièrement importantes.
Fausses affaires juridiques
Selon l'article source, un avocat a cité de fausses affaires et des citations qui sont générées par ChatGPT dans un mémoire juridique qui est déposé devant la cour fédérale. Les avocats ont consulté ChatGPT pour compléter leur recherche juridique en vue d'une réclamation pour dommage causé à l'aviation. Par la suite, l'avocat a demandé à ChatGPT si les affaires fournies étaient fausses. Le chatbot a répondu qu'ils étaient réels et " peuvent être trouvés sur des bases de données de recherche juridique telles que Westlaw et LexisNexis. L'avocat n'a pas vérifié les affaires, et le tribunal les a sanctionnées.
Rubrique parent: Atlas des risques liés à l'IA
Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.