0 / 0
Retourner à la version anglaise de la documentation
Les droits relatifs à la protection de la vie privée menacés par l'IA

Les droits relatifs à la protection de la vie privée menacés par l'IA

Confidentialité Icône représentant les risques pour la vie privée.
Risques associés à l'entrée
Phase de formation et d'optimisation
Confidentialité
Amplifié par l'IA générative

Descriptif

Les lois existantes pourraient prévoir des droits pour les personnes concernées, tels que le droit de retrait, le droit d'accès et le droit à l'oubli.

Pourquoi l'alignement des droits en matière de confidentialité des données est-il une préoccupation pour les modèles de fondation ?

Une mauvaise utilisation ou une demande de suppression des données peut obliger les organisations à réapprendre le modèle, ce qui est coûteux.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Droit d'être oublié (RTBF)

Les lois de plusieurs pays, y compris l'Europe (RGPD), accordent aux personnes concernées le droit de demander la suppression des données à caractère personnel par des organisations ("droit à l'oubli" ou RTBF). Cependant, les systèmes logiciels émergents et de plus en plus populaires basés sur des modèles de langage de grande taille (LLM) présentent de nouveaux défis pour ce droit. Selon l'étude Data61du CSIRO, les personnes concernées peuvent identifier l'utilisation de leurs informations personnelles dans un LLM " en inspectant l'ensemble de données d'apprentissage d'origine ou en invitant le modèle à le faire. Cependant, les données de formation peuvent ne pas être publiques, ou les entreprises ne les divulguent pas, invoquant la sécurité et d'autres préoccupations. Les glissières de sécurité peuvent également empêcher les utilisateurs d'accéder aux informations en les invitant à le faire. En raison de ces obstacles, les personnes concernées pourraient ne pas être en mesure de lancer des procédures RTBF et les entreprises qui déploient des LLMs pourraient ne pas être en mesure de respecter les lois RTBF.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Procès à propos du désapprentissage LLM

Selon le rapport, un procès a été intenté contre Google qui allègue l'utilisation de matériel de copyright et d'informations personnelles comme données de formation pour ses systèmes d'IA, qui comprend son chatbot Bard. Les droits d'opt-out et de suppression sont garantis pour les résidents de la Californie en vertu de la CCPA et les enfants aux États-Unis âgés de moins de 13 ans avec COPPA. Les demanderesses allèguent que parce qu'il n'est pas possible pour Bard de "désapprendre" ou d'enlever complètement tous les PI grattés, il a été nourri. Les demanderesses notent que l'avis de confidentialité de Bard indique que les conversations de Bard ne peuvent pas être supprimées par l'utilisateur après qu'elles ont été examinées et annotées par la société et peuvent être conservées jusqu'à 3 ans. Les plaignants allèguent que ces pratiques contribuent encore davantage au non-respect de ces lois.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus