Descriptif
Lorsqu'un modèle donne des conseils sans disposer de suffisamment d'informations, ce qui peut entraîner un préjudice si le conseil est suivi.
Pourquoi les conseils incomplets constituent-ils un problème pour les modèles de fondation ?
Une personne peut agir sur la base de conseils incomplets ou s'inquiéter d'une situation qui ne s'applique pas à elle en raison de la nature trop générale du contenu généré. Par exemple, un modèle peut fournir des conseils ou des recommandations médicaux, financiers et juridiques erronés que l'utilisateur final pourrait suivre, ce qui entraînerait des actions préjudiciables.
Conseils erronés
Selon l'article source, un chatbot d'IA créé par la ville de New York pour aider les propriétaires de petites entreprises a fourni des conseils incorrects et/ou préjudiciables qui ont déformé les politiques locales et conseillé aux entreprises d'enfreindre la loi. Le chatbot a suggéré à tort que les entreprises pouvaient mettre leurs déchets dans des sacs poubelles noirs et qu'elles n'étaient pas obligées de composter, ce qui est en contradiction avec deux des principales initiatives de la ville en matière de déchets. De même, à la question de savoir si un restaurant pouvait servir du fromage grignoté par un rongeur, elle a répondu par l'affirmative.
Thème parent: Atlas des risques de l'IA
Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.