0 / 0
Retourner à la version anglaise de la documentation
explication des transactions de modèle
Dernière mise à jour : 05 déc. 2024
explication des transactions de modèle

Les explications relatives aux transactions de votre modèle vous aident à comprendre comment les prédictions sont déterminées.

Vous pouvez analyser des explications locales pour comprendre l'impact de facteurs pour des transactions spécifiques ou analyser des explications globales pour comprendre les facteurs généraux qui ont un impact sur les résultats du modèle. Le type de modèle que vous configurez détermine le type d'explication que vous pouvez utiliser pour analyser vos transactions.

Les explications sont prises en charge pour les modèles de textes structurés, d'images et non structurés. Les modèles structurés peuvent utiliser des problèmes de classification binaire, multiclasse ou de régression. Les modèles d'image ou de texte non structuré peuvent utiliser des problèmes de classification binaire ou multiclasse.

Lorsque vous configurez la capacité d'explication, vous pouvez utiliser des explications locales interprétables (Local Interpretable Model-Agnostic Explanations - LIME), des explications contrastives ou des explications additives de Shapley (Shapley Additive explanations - SHAP) pour analyser les transactions.

LIME identifie les fonctions les plus importantes pour un point de données spécifique en analysant jusqu'à 5000 autres points de données proches. Pour un paramétrage idéal, les caractéristiques les plus importantes dans LIME sont celles qui ont le plus d'importance pour ce point de données spécifique.

Les explications contrastives calculent le nombre de valeurs à modifier pour changer la prévision ou conserver la même prévision. Les facteurs qui ont besoin d'un changement maximal sont considérés comme plus importants, de sorte que les caractéristiques qui ont la plus grande importance dans les explications contrastives sont les caractéristiques où le modèle est le moins sensible. Pour les explications contrastives, les changements maximaux pour le même résultat et les changements minimaux pour un résultat modifié sont affichés. Ces catégories sont également appelées valeurs positives pertinentes et valeurs négatives pertinentes. Elles aident à expliciter le comportement à proximité du point de données pour lequel une explication est générée.

SHAP est une approche de la théorie des jeux qui explique la sortie des modèles d'apprentissage automatique. Il connecte une allocation de crédit optimale avec des explications locales en utilisant les valeurs de Shapley et leurs extensions associées. SHAP affecte à chaque fonction de modèle une valeur d'importance pour une prévision particulière, appelée valeur de Shapley. La valeur de Shapley est la contribution marginale moyenne d'une valeur de fonction dans tous les groupes possibles de fonctions. Les valeurs SHAP des caractéristiques d'entrée sont les sommes de la différence entre la sortie de la ligne de base ou du modèle attendu et la sortie du modèle en cours pour la prévision qui est expliquée. La sortie du modèle de référence peut être basée sur le récapitulatif des données de formation ou sur tout sous-ensemble de données pour lesquelles des explications doivent être générées. Les valeurs Shapley d'un ensemble de transactions peuvent être combinées pour obtenir des explications globales qui donnent une vue d'ensemble des caractéristiques d'un modèle qui sont les plus importantes.

Remarque :

Seules les explications globales pour les abonnements en ligne sont prises en charge. Les explications HAP ne prennent en charge que les données tabulaires.

Analyse des explications locales

Vous pouvez utiliser différentes méthodes pour consulter les explications locales.

Lorsque vous examinez les résultats d'évaluation, vous pouvez sélectionner le lien Nombre d'explications pour ouvrir la fenêtre Sélectionner une explication .

La fenêtre Sélectionner une explication s'affiche

Dans la colonne Action , sélectionnez Explain pour afficher la page des détails de la transaction . Les détails des transactions fournissent différentes explications, en fonction des méthodes d'explication et des types de modèle que vous utilisez.

Pour les modèles catégoriels, dans l'onglet Expliquer , la page Détails de la transaction fournit une analyse des fonctions qui ont influencé le résultat de la transaction avec la méthode d'explication locale que vous utilisez. Pour SHAP, vous pouvez sélectionner les données d'arrière-plan que vous utilisez dans le menu Données d'arrière-plan pour régénérer l'explication.

Détails de transaction

Dans l'onglet Inspecter, des explications contrastives avancées sont générées pour les modèles de classification binaire. Vous pouvez les utiliser pour expérimenter les caractéristiques en modifiant les valeurs afin de voir si le résultat change.

Les détails de la transaction dans l'onglet Inspecter affichent des valeurs qui peuvent générer un résultat différent

Vous pouvez également afficher différentes explications pour les types de transaction suivants:

Explication des transactions d'image

Pour les modèles d'image, vous pouvez voir quelles parties d'une image contribuent positivement et négativement au résultat prévu. Dans l'exemple suivant, l'image du panneau positif montre les parties qui ont eu une incidence positive sur la prévision. L'image du panneau négatif montre les parties des images qui ont eu un impact négatif sur le résultat.

Le détail de la fiabilité de la classification des images d'explicabilité s'affiche avec une image d'une grenouille d'arbre. Différentes parties de l'image sont mises en évidence dans des cadres séparés. Chaque partie montre dans quelle mesure elle a aidé ou non à déterminer que l'image est une grenouille.

Vous pouvez également utiliser les blocs-notes suivants pour générer des explications pour les modèles d'image:

Explication des transactions de texte non structuré

Pour les modèles de texte non structuré, vous pouvez voir quels mots clés ont eu un impact positif ou négatif sur la prévision du modèle. Les modèles de texte non structuré expliquent l'importance des mots ou des jetons.

Le graphique de classification des images d'explicabilité s'affiche. Affiche les niveaux de confiance pour le texte non structuré

Elle montre également la position des mots clés identifiés dans le texte d'origine fourni en entrée au modèle. Pour changer la langue, sélectionnez-en une autre dans la liste. L'explication s'exécute à nouveau en utilisant un marqueur sémantique différent.

Vous pouvez également utiliser le bloc-notes suivant pour générer des explications pour les modèles de texte non structuré:

Tutoriel sur la génération d'une explication pour un modèle texte

Explication des transactions tabulaires

Pour les modèles de classification tabulaires, vous pouvez afficher les trois principales caractéristiques qui ont une influence positive sur la prévision du modèle et les trois principales caractéristiques qui ont une influence négative sur la prévision.

Le graphique de classification des images d'explicabilité s'affiche. Affiche les niveaux de confiance pour le modèle de données tabulaires

Pour afficher des explications locales, vous pouvez également sélectionner l'onglet Expliquer une transaction Expliquer une transaction pour ouvrir la page Transactions récentes . La page affiche toutes les transactions traitées par votre modèle.

Analyse des explications globales

Si vous activez la méthode d'explication globale SHAP ou LIME lorsque vous configurez l'explicabilité, vous pouvez afficher les détails de la métrique de stabilité de l'explication globale. La métrique d'explication globale calcule le degré de cohérence de l'explication globale dans le temps.

Le tableau de stabilité de l'explication globale s'affiche. Il montre le degré de cohérence des explications globales au fil du temps

Lorsque vous analysez les explications globales, vous pouvez également consulter les détails suivants :

Influence de la caractéristique

Vous pouvez visualiser les caractéristiques les plus importantes par ordre décroissant des valeurs absolues moyennes de SHAP ou de LIME pour comprendre quelles caractéristiques ont la plus grande influence sur les prédictions du modèle.

Le graphique d'influence des caractéristiques s'affiche. Il présente les caractéristiques les plus importantes par ordre décroissant des valeurs absolues moyennes de SHAP ou de LIME.

Distribution des caractéristiques

Le graphique de distribution des caractéristiques montre comment les valeurs SHAP ou LIME affectent les prédictions des caractéristiques les plus importantes. Vous pouvez utiliser le graphique pour comprendre la corrélation entre les caractéristiques et les prédictions.

Le tableau de répartition des caractéristiques s'affiche. Il montre la corrélation entre les caractéristiques et les prédictions.

Comparaison

Vous pouvez comparer l'évolution de l'influence des fonctionnalités entre les explications globales actuelles et les explications globales de référence

affichage des indicateurs d'explication globale

Rubrique parent: Examen des transactions de modèle

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus