Risque d'attaque par extraction pour l'IA
Descriptif
Une attaque par inférence d'attributs est utilisée pour détecter si certaines caractéristiques sensibles peuvent être déduites au sujet des individus qui ont participé à la formation d'un modèle. Ces attaques se produisent lorsqu'un adversaire possède des connaissances préalables sur les données d'apprentissage et les utilise pour déduire les données sensibles.
Pourquoi l'attaque par extraction est-elle une préoccupation pour les modèles de base?
Si l'attaque d'extraction réussit, l'attaquant peut effectuer d'autres attaques adverses pour obtenir des informations précieuses, telles que des informations personnelles sensibles ou de la propriété intellectuelle.
Rubrique parent: Atlas des risques liés à l'IA
Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.