Risque de non-divulgation pour l'IA
Descriptif
Le contenu peut ne pas être clairement indiqué comme étant généré par l'IA.
Pourquoi la non-divulgation est-elle une préoccupation pour les modèles de fondations?
Les utilisateurs doivent être avertis lorsqu'ils interagissent avec un système d'IA. Le fait de ne pas divulguer le contenu rédigé par l'IA peut entraîner un manque de transparence.

Interaction d'IA non divulguée
Selon l'article source, un service de chat de support émotionnel en ligne a mené une étude pour augmenter ou écrire des réponses à environ 4 000 utilisateurs en utilisant GPT-3 sans en informer les utilisateurs. Le cofondateur a dû faire face à une énorme réaction du public à propos du risque de dommages causés par les chats générés par l'IA aux utilisateurs déjà vulnérables. Il a affirmé que l'étude était "exemptée" de la loi sur le consentement éclairé.
Rubrique parent: Atlas des risques liés à l'IA
Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.