0 / 0
Retourner à la version anglaise de la documentation
Risque d'empoisonnement des données pour l'IA

Risque d'empoisonnement des données pour l'IA

Risques associés à l'entrée
Phase de formation et d'optimisation
Robustesse
Risque d'IA traditionnel

Descriptif

Type d'attaque contradictoire dans laquelle un adversaire ou un initié malveillant injecte des échantillons intentionnellement corrompus, faux, trompeurs ou incorrects dans le jeu de données d'entraînement ou d'optimisation.

Pourquoi l'empoisonnement des données est-il une préoccupation pour les modèles de base?

L'empoisonnement des données peut rendre le modèle sensible à un modèle de données malveillant et produire la sortie souhaitée de l'adversaire. Il peut créer un risque de sécurité où les adversaires peuvent forcer le comportement du modèle pour leur propre bénéfice. En plus de produire des résultats inattendus et potentiellement malveillants, un mauvais alignement du modèle à cause de l'empoisonnement des données peut entraîner des conséquences juridiques ou des dommages à la réputation pour les entités métier.

Rubrique parent: Atlas des risques liés à l'IA

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus