0 / 0
Retourner à la version anglaise de la documentation
Risque d'attaque par inférence d'appartenance pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque d'attaque par inférence d'appartenance pour l'IA
Confidentialité Icône représentant les risques pour la vie privée.
Risques associés à l'entrée
Inférence
Confidentialité
Amplifié par l'IA générative

Descriptif

Une attaque par inférence d'appartenance interroge de manière répétée un modèle afin de déterminer si une entrée donnée faisait partie de la formation du modèle. Plus précisément, étant donné un modèle entraîné et un échantillon de données, un attaquant échantillonne l'espace d'entrée, observant les sorties pour déduire si cet échantillon faisait partie de l'entraînement du modèle.

Pourquoi l'inférence d'appartenance constitue-t-elle une préoccupation pour les modèles de base?

Identifier si un échantillon de données a été utilisé comme données de formation peut révéler quelles données ont été utilisées pour former un modèle. Il est possible que les concurrents aient un aperçu de la façon dont un modèle a été formé et qu'ils aient la possibilité de reproduire le modèle ou de l'altérer. Les modèles qui incluent des données accessibles au public sont plus exposés à ce type d'attaques.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus