0 / 0
Retourner à la version anglaise de la documentation
Risque de sortie inexplicable pour l'IA
Dernière mise à jour : 12 déc. 2024
Risque de sortie inexplicable pour l'IA
Explicabilité Icône représentant les risques d'explicabilité.
Risques associés à la sortie
Explicabilité
Amplifié par l'IA générative

Descriptif

Les explications des décisions de sortie de modèle peuvent être difficiles, imprécises ou impossibles à obtenir.

Pourquoi la sortie inexplicable est-elle une préoccupation pour les modèles de base?

Les modèles de base sont basés sur des architectures d'apprentissage en profondeur complexes, ce qui rend les explications de leurs résultats difficiles. L'inaccessibilité des données de formation peut limiter les types d'explications qu'un modèle peut fournir. Sans explications claires pour la sortie de modèle, il est difficile pour les utilisateurs, les valideurs de modèle et les auditeurs de comprendre et de faire confiance au modèle. Des explications erronées peuvent conduire à une confiance excessive.

Image d'arrière-plan des risques associés à l'entrée
Exemple

Précision inexplicable dans la prédiction de la course

Selon l'article source, les chercheurs analysant plusieurs modèles d'apprentissage automatique à l'aide d'images médicales de patients ont été en mesure de confirmer la capacité des modèles à prédire la race avec une grande précision à partir d'images. Ils se sont heurtés à la question de savoir ce qui permet exactement aux systèmes de deviner correctement. Les chercheurs ont constaté que même des facteurs tels que la maladie et la construction physique n'étaient pas de puissants prédicteurs de la race-en d'autres termes, les systèmes algorithmiques ne semblent pas utiliser un aspect particulier des images pour faire leurs déterminations.

Rubrique parent: Atlas des risques liés à l'IA

Nous fournissons des exemples couverts par la presse pour vous aider à expliquer les risques de nombreux modèles de base. Un grand nombre de ces événements couverts par la presse sont en constante évolution ou ont été résolus, et leur référencement peut aider le lecteur à comprendre les risques potentiels et à s'orienter vers des mesures d'atténuation. La mise en évidence de ces exemples est fournie à des fins d'illustration uniquement.

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus