0 / 0
Retourner à la version anglaise de la documentation
Impact sur le risque d'agence humaine pour l'IA
Dernière mise à jour : 12 déc. 2024
Impact sur le risque d'agence humaine pour l'IA
Impact sociétal Icône représentant les risques d'impact sociétal.
Risques non techniques
Impact sociétal
Amplifié par l'IA générative

Descriptif

L'IA pourrait affecter la capacité des individus à faire des choix et à agir de manière indépendante dans leur meilleur intérêt.

Pourquoi l'impact sur l'organisme humain est-il une préoccupation pour les modèles de fondation?

L'IA peut générer des informations fausses ou trompeuses qui semblent réelles Elle peut simplifier la capacité des acteurs malveillants à générer des contenus faux ou trompeurs d'apparence réaliste dans l'intention de manipuler les pensées et le comportement humains. Lorsque des contenus faux ou trompeurs générés par l'IA sont diffusés, les gens risquent de ne pas reconnaître qu'il s'agit de fausses informations, ce qui conduit à une compréhension déformée de la vérité. Les personnes peuvent être moins efficaces lorsqu'elles sont exposées à des informations fausses ou trompeuses, car elles peuvent utiliser de fausses hypothèses dans leur processus de décision.

Image de fond pour les risques associés à la saisie
Exemple

Manipulation des électeurs lors des élections à l'aide de l'IA

Selon l'article source, une vague de "deepfakes" liés à des élections en Europe et en Asie a déferlé sur les médias sociaux pendant des mois. L'essor de l'IA générative a fait craindre que cette technologie ne perturbe des élections majeures dans le monde entier. Avec les "deepfakes" de l'IA, l'image d'un candidat peut être brouillée ou adoucie. Les électeurs peuvent être orientés vers des candidats ou s'en éloigner, ou même éviter complètement de se rendre aux urnes. Mais la plus grande menace pour la démocratie, selon les experts, réside peut-être dans le fait qu'une vague de "deepfakes" de l'IA pourrait éroder la confiance du public dans ce qu'il voit et entend.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus