0 / 0
Retourner à la version anglaise de la documentation
Risque d'attaque d'évasion pour l'intelligence artificielle

Risque d'attaque d'évasion pour l'intelligence artificielle

Risques associés à l'entrée
Inférence
Robustesse
Amplifié par l'IA générative

Descriptif

Tentative de générer des résultats de sortie de modèle incorrects en perturbant les données envoyées au modèle entraîné.

Pourquoi l'évasion est-elle une préoccupation pour les modèles de fondations?

Les attaques d'évasion modifient le comportement du modèle, généralement au bénéfice de l'agresseur. S'il n'est pas correctement comptabilisé, les entités commerciales pourraient être passibles d'amendes, de dommages à la réputation et d'autres conséquences juridiques.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Attaques antagonistes sur les composants d'IA des véhicules autonomes

Un rapport de l'Agence de l'Union européenne pour la cybersécurité (ENISA) a constaté que les véhicules autonomes sont "très vulnérables" à un large éventail d'attaques qui pourraient être dangereuses pour les passagers, les piétons et les personnes dans d'autres véhicules. Le rapport indique qu'une attaque contradictoire pourrait être utilisée pour rendre l'IA "aveugle" aux piétons en manipulant le composant de reconnaissance d'image pour mal classer les piétons. Cette attaque pourrait entraîner des ravages dans les rues, car les voitures autonomes pourraient frapper les piétons sur les routes ou les passages à niveau.

D'autres études ont mis en évidence des attaques antagonistes potentielles sur des véhicules autonomes:

  • Tromper les algorithmes d'apprentissage automatique en apportant des changements mineurs aux graphiques de panneaux de rue, tels que l'ajout de autocollants.
  • Des chercheurs en sécurité de Tencent ont montré comment l'ajout de trois petits autocollants à une intersection pouvait amener le système de pilotage automatique de Tesla à dévier dans la mauvaise voie.
  • Deux chercheurs de McAfee ont démontré comment l'utilisation de bandes électriques noires pouvait faire passer un Tesla 2016 dans une explosion dangereuse d'accélération en changeant un signal de limite de vitesse de 35 mph à 85 mph.

    Rubrique parent: Atlas des risques liés à l'IA

    Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.

    Recherche et réponse à l'IA générative
    Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus