0 / 0
Retourner à la version anglaise de la documentation
Risque d'attaque par extraction pour l'IA

Risque d'attaque par extraction pour l'IA

Risques associés à l'entrée
inférence
Robustesse
Amplifié par l'IA générative

Descriptif

Une attaque par extraction tente de copier ou de voler un modèle d'IA en échantillonnant de manière appropriée l'espace d'entrée et en observant les sorties pour créer un modèle de substitution qui se comporte de la même manière.

Pourquoi l'attaque par extraction est-elle une préoccupation pour les modèles de base?

Avec une attaque réussie, l'agresseur peut obtenir des informations précieuses telles que des informations personnelles sensibles ou la propriété intellectuelle.

Rubrique parent: Atlas des risques liés à l'IA

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus