0 / 0
Retourner à la version anglaise de la documentation
Données confidentielles à risque rapide pour l'intelligence artificielle

Données confidentielles à risque rapide pour l'intelligence artificielle

Risques associés à l'entrée
inférence
Propriété intellectuelle
Nouveautés de l'IA générative

Descriptif

Inclusion de données confidentielles dans le cadre de l'invite envoyée au modèle.

Pourquoi les données confidentielles sont-elles rapidement un sujet de préoccupation pour les modèles de base?

S'il n'est pas correctement développé pour sécuriser les données confidentielles, le modèle peut révéler des informations confidentielles ou une adresse IP dans la sortie générée. En outre, les informations confidentielles des utilisateurs finaux peuvent être involontairement collectées et stockées.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Divulgation d'informations confidentielles

Selon l'article source, les employés de Samsung ont communiqué des informations confidentielles à OpenAI en utilisant ChatGPT. Dans un cas, un employé a collé du code source confidentiel pour vérifier s'il y avait des erreurs. Dans un autre cas, un employé a partagé le code avec ChatGPT et "a demandé l'optimisation du code". Un troisième partage un enregistrement d'une réunion à convertir en notes pour une présentation. Samsung a une utilisation ChatGPT interne limitée en réponse à ces incidents, mais il est peu probable qu'ils soient en mesure de rappeler l'une de leurs données. En outre, l'article a souligné qu'en réponse au risque de fuite d'informations confidentielles et d'autres informations sensibles, des sociétés comme Apple, JPMorgan Chase. La Deutsche Bank, Verizon, Walmart, Samsung, Amazon et Accenture ont imposé plusieurs restrictions sur l'utilisation de ChatGPT.

Rubrique parent: Atlas des risques liés à l'IA

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus