0 / 0
Retourner à la version anglaise de la documentation
Risque d'attribution de source non fiable pour l'IA

Risque d'attribution de source non fiable pour l'IA

Explicabilité Icône représentant les risques d'explicabilité.
Risques associés à la sortie
Explicabilité
Nouveau dans l'IA générative

Descriptif

L'attribution de la source est la capacité du système d'IA à décrire à partir de quelles données d'apprentissage il a généré une partie ou la totalité de sa sortie. Comme les techniques actuelles sont basées sur des approximations, ces attributions peuvent être incorrectes.

Pourquoi l'attribution de sources peu fiables est-elle une préoccupation pour les modèles de fondations?

Les attributions de mauvaise qualité rendent difficile la compréhension et la confiance des utilisateurs, des validateurs de modèles et des auditeurs.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour expliquer de nombreux risques liés aux modèles de fondation. Nombre de ces événements couverts par la presse sont encore en cours ou ont été résolus, et le fait d'y faire référence peut aider le lecteur à comprendre les risques potentiels et à s'efforcer de les atténuer. La mise en évidence de ces exemples n'a qu'un but illustratif.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus