0 / 0
Retourner à la version anglaise de la documentation
Risque d'attaque par inférence d'appartenance pour l'IA

Risque d'attaque par inférence d'appartenance pour l'IA

Risques associés à l'entrée
inférence
Confidentialité
Risque d'IA traditionnel

Descriptif

Compte tenu d'un modèle entraîné et d'un échantillon de données, un agresseur informatique échantillonne de manière appropriée l'espace d'entrée, en observant les sorties pour déterminer si cet échantillon faisait partie de l'apprentissage du modèle. C'est ce qu'on appelle une attaque par inférence d'appartenance.

Pourquoi l'inférence d'appartenance constitue-t-elle une préoccupation pour les modèles de base?

Le fait d'identifier si un échantillon de données a été utilisé pour les données d'entraînement peut révéler quelles données ont été utilisées pour entraîner un modèle, ce qui peut donner aux concurrents un aperçu de la façon dont un modèle a été entraîné et de la possibilité de répliquer le modèle ou de l'altérer.

Rubrique parent: Atlas des risques liés à l'IA

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus