0 / 0
Retourner à la version anglaise de la documentation
Risque d'utilisation dangereuse pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque d'utilisation dangereuse pour l'IA
Mauvaise utilisation Icône représentant les risques de mauvaise utilisation.
Risques associés à la sortie
Mauvaise utilisation
Nouveautés de l'IA générative

Descriptif

Les modèles d'IA générative peuvent être utilisés dans le seul but de nuire aux personnes.

Pourquoi l'utilisation dangereuse est-elle une préoccupation pour les modèles de fondations?

Les grands modèles de langage sont souvent formés à partir de vastes quantités d'informations accessibles au public, qui peuvent inclure des informations sur les préjudices causés à autrui. Un modèle qui a ce potentiel doit être soigneusement évalué pour ce type de contenu et correctement régi.

Image de fond pour les risques associés à la saisie
Exemple

Cyberattaques basées sur l'IA

Selon l'article source, les pirates expérimentent de plus en plus le ChatGPT et d'autres outils d'IA, ce qui permet à un plus grand nombre d'acteurs de mener des cyberattaques et des escroqueries. Microsoft a averti que des pirates soutenus par des États utilisaient les LLM d'OpenAI pour améliorer leurs cyberattaques, en affinant les scripts et en améliorant leurs techniques de ciblage. L'article mentionne également un cas où Microsoft et OpenAI disent avoir détecté des tentatives de la part d'attaquants et une forte augmentation des cyberattaques visant des bureaux gouvernementaux.

Image de fond pour les risques associés à la saisie
Exemple

Attaques biologiques basées sur l'IA

Selon l'article source, les grands modèles de langage pourraient contribuer à la planification et à l'exécution d'une attaque biologique. Plusieurs scénarios d'essai sont mentionnés, tels que l'utilisation de LLM pour identifier des agents biologiques et leurs chances relatives de nuire à la vie humaine. L'article a également mis en lumière la question ouverte du niveau de menace que représentent les LLM au-delà des informations préjudiciables facilement accessibles en ligne.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus