0 / 0
Retourner à la version anglaise de la documentation
Risque d'attaque par inférence d'attribut pour l'intelligence artificielle

Risque d'attaque par inférence d'attribut pour l'intelligence artificielle

Risques associés à l'entrée
inférence
Confidentialité
Amplifié par l'IA générative

Descriptif

Une attaque par inférence d'attribut est utilisée pour détecter si certaines caractéristiques sensibles peuvent être déduites des personnes qui ont participé à l'entraînement d'un modèle. Ces attaques se produisent lorsqu'un adversaire possède des connaissances préalables sur les données d'entraînement et utilise ces connaissances pour déduire les données sensibles.

Pourquoi l'attaque par inférence d'attribut constitue-t-elle une préoccupation pour les modèles de base?

Avec une attaque réussie, l'agresseur peut obtenir des informations précieuses telles que des informations personnelles sensibles ou la propriété intellectuelle.

Rubrique parent: Atlas des risques liés à l'IA

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus