Descriptif
Une attaque par inférence d'appartenance interroge de manière répétée un modèle afin de déterminer si une entrée donnée faisait partie de la formation du modèle. Plus précisément, étant donné un modèle entraîné et un échantillon de données, un attaquant échantillonne l'espace d'entrée, observant les sorties pour déduire si cet échantillon faisait partie de l'entraînement du modèle.
Pourquoi l'inférence d'appartenance constitue-t-elle une préoccupation pour les modèles de base?
Identifier si un échantillon de données a été utilisé comme données de formation peut révéler quelles données ont été utilisées pour former un modèle. Il est possible que les concurrents aient un aperçu de la façon dont un modèle a été formé et qu'ils aient la possibilité de reproduire le modèle ou de l'altérer. Les modèles qui incluent des données accessibles au public sont plus exposés à ce type d'attaques.
Rubrique parent: Atlas des risques liés à l'IA
Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.