Descriptif
Des informations confidentielles peuvent être incluses dans le message envoyé au modèle.
Pourquoi les données confidentielles sont-elles rapidement un sujet de préoccupation pour les modèles de base?
S'il n'est pas correctement développé pour sécuriser les données confidentielles, le modèle peut révéler des informations confidentielles ou une adresse IP dans la sortie générée. En outre, les informations confidentielles des utilisateurs finaux peuvent être involontairement collectées et stockées.
Divulgation d'informations confidentielles
Selon l'article source, les employés de Samsung ont communiqué des informations confidentielles à OpenAI en utilisant ChatGPT. Dans un cas, un employé a collé du code source confidentiel pour vérifier s'il y avait des erreurs. Dans un autre cas, un employé a partagé un code avec ChatGPT et a "demandé une optimisation du code". Un troisième partage un enregistrement d'une réunion à convertir en notes pour une présentation. Samsung a une utilisation ChatGPT interne limitée en réponse à ces incidents, mais il est peu probable qu'ils soient en mesure de rappeler l'une de leurs données. En outre, l'article a souligné qu'en réponse au risque de fuite d'informations confidentielles et d'autres informations sensibles, des sociétés comme Apple, JPMorgan Chase. La Deutsche Bank, Verizon, Walmart, Samsung, Amazon et Accenture ont imposé plusieurs restrictions sur l'utilisation de ChatGPT.
Rubrique parent: Atlas des risques liés à l'IA
Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.