0 / 0
Retourner à la version anglaise de la documentation
Risque d'amorçage rapide pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque d'amorçage rapide pour l'IA
Catégorie multiple Icône représentant les risques multi-catégoriels.
Risques associés à l'entrée
Inférence
Catégorie multiple
Nouveau dans l'IA générative

Descriptif

Etant donné que les modèles génératifs ont tendance à produire des sorties comme les entrées fournies, le modèle peut être invité à révéler des types d'informations spécifiques. Par exemple, l'ajout d'informations personnelles dans l'invite augmente sa probabilité de générer des types d'informations personnelles similaires dans sa sortie. Si des données personnelles ont été incluses dans le cadre de la formation du modèle, il est possible qu'elles soient révélées.

Pourquoi l'amorçage rapide est-il une préoccupation pour les modèles de base?

Les attaques de type "jailbreaking" peuvent être utilisées pour modifier le comportement du modèle et profiter à l'attaquant

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus