0 / 0
Retourner à la version anglaise de la documentation
Risque de production nuisible pour l'IA

Risque de production nuisible pour l'IA

Alignement Icône représentant les risques d'alignement.
Risques liés à la production
Alignement des valeurs
Nouveau dans l'IA générative

Descriptif

Un modèle peut générer un langage qui conduit à des dommages physiques. Le langage peut inclure des déclarations ouvertement violentes, secrètement dangereuses ou indirectement dangereuses.

Pourquoi la production nocive est-elle une préoccupation pour les modèles de fondation ?

Un modèle générant des résultats nuisibles peut causer des dommages physiques immédiats ou créer des préjugés susceptibles de conduire à des dommages futurs.

Thème parent: Atlas des risques de l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus