Exposer les risques liés aux informations personnelles dans le cadre de l'IA
Descriptif
Lorsque des informations personnelles identifiables (PII) ou des informations personnelles sensibles (SPI) sont utilisées dans les données d'apprentissage, les données de mise au point ou dans le cadre de l'invite, les modèles peuvent révéler ces données dans les résultats générés. La divulgation d'informations personnelles est un type de fuite de données.
Pourquoi l'exposition d'informations personnelles est-elle une préoccupation pour les modèles de fondation ?
Le partage de l'IP des personnes a une incidence sur leurs droits et les rend plus vulnérables.

Exposition d'informations personnelles
Selon l'article source, ChatGPT a été victime d'un bogue et a exposé les titres et l'historique des chats des utilisateurs actifs à d'autres utilisateurs. Plus tard, OpenAI a fait savoir qu'un nombre encore plus important de données privées d'un petit nombre d'utilisateurs avaient été exposées, notamment le nom et le prénom de l'utilisateur actif, son adresse électronique, son adresse de paiement, les quatre derniers chiffres de son numéro de carte de crédit et la date d'expiration de sa carte de crédit. En outre, il a été signalé que les informations relatives au paiement de 1.2% des abonnés de ChatGPT Plus ont également été exposées lors de la panne.
Thème parent: Atlas des risques de l'IA
Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.