Risque de non-divulgation pour l'IA

Dernière mise à jour : 10 févr. 2025
Risque de non-divulgation pour l'IA
Mauvaise utilisation Icône représentant les risques de mauvaise utilisation.
Mauvaise utilisation
Risques liés à la production
Nouveautés de l'IA générative

Descriptif

Le contenu peut ne pas être clairement indiqué comme étant généré par l'IA.

Pourquoi la non-divulgation est-elle une préoccupation pour les modèles de fondations?

Les utilisateurs doivent être avertis lorsqu'ils interagissent avec un système d'IA. Le fait de ne pas divulguer le contenu rédigé par l'IA peut entraîner un manque de transparence.

Image de fond pour les risques associés à la production
Exemple

Interaction d'IA non divulguée

Selon l'article source, un service de chat de support émotionnel en ligne a mené une étude pour augmenter ou écrire des réponses à environ 4 000 utilisateurs en utilisant GPT-3 sans en informer les utilisateurs. Le cofondateur a dû faire face à une énorme réaction du public à propos du risque de dommages causés par les chats générés par l'IA aux utilisateurs déjà vulnérables. Il a affirmé que l'étude était "exemptée" de la loi sur le consentement éclairé.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.