0 / 0
Retourner à la version anglaise de la documentation
Risque lié aux droits de confidentialité des données pour l'IA

Risque lié aux droits de confidentialité des données pour l'IA

Risques associés à l'entrée
Phase de formation et d'optimisation
Confidentialité
Amplifié par l'IA générative

Descriptif

Les défis liés à la capacité de fournir des droits aux personnes concernées tels que l'opt-out, le droit d'accès, le droit à l'oubli.

Pourquoi le droit à la confidentialité des données est-il une préoccupation pour les modèles de base?

L'identification ou l'utilisation inappropriée des données peut entraîner une violation des lois sur la confidentialité. Une utilisation incorrecte ou une demande de suppression de données peut forcer les organisations à entraîner à nouveau le modèle, ce qui est coûteux. En outre, les entités métier peuvent être confrontées à des amendes, à des dommages à la réputation, à une perturbation des opérations et à d'autres conséquences juridiques si elles ne se conforment pas aux règles et réglementations en matière de confidentialité des données.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Droit d'être oublié (RTBF)

Les lois de plusieurs pays, y compris l'Europe (RGPD), accordent aux personnes concernées le droit de demander la suppression des données à caractère personnel par des organisations ("droit à l'oubli" ou RTBF). Cependant, les systèmes logiciels émergents et de plus en plus populaires basés sur des modèles de langage de grande taille (LLM) présentent de nouveaux défis pour ce droit. Selon l'étude Data61du CSIRO, les personnes concernées peuvent identifier l'utilisation de leurs informations personnelles dans un LLM " en inspectant l'ensemble de données d'apprentissage d'origine ou en invitant le modèle à le faire. Cependant, les données de formation peuvent ne pas être publiques, ou les entreprises ne les divulguent pas, invoquant la sécurité et d'autres préoccupations. Les glissières de sécurité peuvent également empêcher les utilisateurs d'accéder aux informations en les invitant à le faire. En raison de ces obstacles, les personnes concernées pourraient ne pas être en mesure de lancer des procédures RTBF et les entreprises qui déploient des LLMs pourraient ne pas être en mesure de respecter les lois RTBF.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Procès à propos du désapprentissage LLM

Selon le rapport, un procès a été intenté contre Google qui allègue l'utilisation de matériel de copyright et d'informations personnelles comme données de formation pour ses systèmes d'IA, qui comprend son chatbot Bard. Les droits d'opt-out et de suppression sont garantis pour les résidents de la Californie en vertu de la CCPA et les enfants aux États-Unis âgés de moins de 13 ans avec COPPA. Les demanderesses allèguent que parce qu'il n'est pas possible pour Bard de "désapprendre" ou d'enlever complètement tous les PI grattés, il a été nourri. Les demanderesses notent que l'avis de confidentialité de Bard indique que les conversations de Bard ne peuvent pas être supprimées par l'utilisateur après qu'elles ont été examinées et annotées par la société et peuvent être conservées jusqu'à 3 ans. P allèguent que ces pratiques contribuent davantage à la non-conformité à ces lois.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus