Les explications relatives aux transactions de votre modèle vous aident à comprendre comment les prédictions sont déterminées.
Vous pouvez analyser des explications locales pour comprendre l'impact de facteurs pour des transactions spécifiques ou analyser des explications globales pour comprendre les facteurs généraux qui ont un impact sur les résultats du modèle. Le type de modèle que vous configurez détermine le type d'explication que vous pouvez utiliser pour analyser vos transactions.
Les explications sont prises en charge pour les modèles de textes structurés, d'images et non structurés. Les modèles structurés peuvent utiliser des problèmes de classification binaire, multiclasse ou de régression. Les modèles d'image ou de texte non structuré peuvent utiliser des problèmes de classification binaire ou multiclasse.
Lorsque vous configurez la capacité d'explication, vous pouvez utiliser des explications locales interprétables (Local Interpretable Model-Agnostic Explanations - LIME), des explications contrastives ou des explications additives de Shapley (Shapley Additive explanations - SHAP) pour analyser les transactions.
LIME identifie les fonctions les plus importantes pour un point de données spécifique en analysant jusqu'à 5000 autres points de données proches. Pour un paramétrage idéal, les caractéristiques les plus importantes dans LIME sont celles qui ont le plus d'importance pour ce point de données spécifique.
Les explications contrastives calculent le nombre de valeurs à modifier pour changer la prévision ou conserver la même prévision. Les facteurs qui ont besoin d'un changement maximal sont considérés comme plus importants, de sorte que les caractéristiques qui ont la plus grande importance dans les explications contrastives sont les caractéristiques où le modèle est le moins sensible. Pour les explications contrastives, les changements maximaux pour le même résultat et les changements minimaux pour un résultat modifié sont affichés. Ces catégories sont également appelées valeurs positives pertinentes et valeurs négatives pertinentes. Elles aident à expliciter le comportement à proximité du point de données pour lequel une explication est générée.
SHAP est une approche de la théorie des jeux qui explique la sortie des modèles d'apprentissage automatique. Il connecte une allocation de crédit optimale avec des explications locales en utilisant les valeurs de Shapley et leurs extensions associées. SHAP affecte à chaque fonction de modèle une valeur d'importance pour une prévision particulière, appelée valeur de Shapley. La valeur de Shapley est la contribution marginale moyenne d'une valeur de fonction dans tous les groupes possibles de fonctions. Les valeurs SHAP des caractéristiques d'entrée sont les sommes de la différence entre la sortie de la ligne de base ou du modèle attendu et la sortie du modèle en cours pour la prévision qui est expliquée. La sortie du modèle de référence peut être basée sur le récapitulatif des données de formation ou sur tout sous-ensemble de données pour lesquelles des explications doivent être générées. Les valeurs Shapley d'un ensemble de transactions peuvent être combinées pour obtenir des explications globales qui donnent une vue d'ensemble des caractéristiques d'un modèle qui sont les plus importantes.
Seules les explications globales pour les abonnements en ligne sont prises en charge. Les explications HAP ne prennent en charge que les données tabulaires.
Analyse des explications locales
Vous pouvez utiliser différentes méthodes pour consulter les explications locales.
Lorsque vous examinez les résultats d'évaluation, vous pouvez sélectionner le lien Nombre d'explications pour ouvrir la fenêtre Sélectionner une explication .
Dans la colonne Action , sélectionnez Explain pour afficher la page des détails de la transaction . Les détails des transactions fournissent différentes explications, en fonction des méthodes d'explication et des types de modèle que vous utilisez.
Pour les modèles catégoriels, dans l'onglet Expliquer , la page Détails de la transaction fournit une analyse des fonctions qui ont influencé le résultat de la transaction avec la méthode d'explication locale que vous utilisez. Pour SHAP, vous pouvez sélectionner les données d'arrière-plan que vous utilisez dans le menu Données d'arrière-plan pour régénérer l'explication.
Dans l'onglet Inspecter, des explications contrastives avancées sont générées pour les modèles de classification binaire. Vous pouvez les utiliser pour expérimenter les caractéristiques en modifiant les valeurs afin de voir si le résultat change.
Vous pouvez également afficher différentes explications pour les types de transaction suivants:
- Explication des transactions d'image
- Explication des transactions de texte non structuré
- Explication des transactions tabulaires
Explication des transactions d'image
Pour les modèles d'image, vous pouvez voir quelles parties d'une image contribuent positivement et négativement au résultat prévu. Dans l'exemple suivant, l'image du panneau positif montre les parties qui ont eu une incidence positive sur la prévision. L'image du panneau négatif montre les parties des images qui ont eu un impact négatif sur le résultat.
Vous pouvez également utiliser les blocs-notes suivants pour générer des explications pour les modèles d'image:
Explication des transactions de texte non structuré
Pour les modèles de texte non structuré, vous pouvez voir quels mots clés ont eu un impact positif ou négatif sur la prévision du modèle. Les modèles de texte non structuré expliquent l'importance des mots ou des jetons.
Elle montre également la position des mots clés identifiés dans le texte d'origine fourni en entrée au modèle. Pour changer la langue, sélectionnez-en une autre dans la liste. L'explication s'exécute à nouveau en utilisant un marqueur sémantique différent.
Vous pouvez également utiliser le bloc-notes suivant pour générer des explications pour les modèles de texte non structuré:
Tutoriel sur la génération d'une explication pour un modèle texte
Explication des transactions tabulaires
Pour les modèles de classification tabulaires, vous pouvez afficher les trois principales caractéristiques qui ont une influence positive sur la prévision du modèle et les trois principales caractéristiques qui ont une influence négative sur la prévision.
Pour afficher des explications locales, vous pouvez également sélectionner l'onglet Expliquer une transaction pour ouvrir la page Transactions récentes . La page affiche toutes les transactions traitées par votre modèle.
Analyse des explications globales
Si vous activez la méthode d'explication globale SHAP ou LIME lorsque vous configurez l'explicabilité, vous pouvez afficher les détails de la métrique de stabilité de l'explication globale. La métrique d'explication globale calcule le degré de cohérence de l'explication globale dans le temps.
Lorsque vous analysez les explications globales, vous pouvez également consulter les détails suivants :
Influence de la caractéristique
Vous pouvez visualiser les caractéristiques les plus importantes par ordre décroissant des valeurs absolues moyennes de SHAP ou de LIME pour comprendre quelles caractéristiques ont la plus grande influence sur les prédictions du modèle.
Distribution des caractéristiques
Le graphique de distribution des caractéristiques montre comment les valeurs SHAP ou LIME affectent les prédictions des caractéristiques les plus importantes. Vous pouvez utiliser le graphique pour comprendre la corrélation entre les caractéristiques et les prédictions.
Comparaison
Vous pouvez comparer l'évolution de l'influence des fonctionnalités entre les explications globales actuelles et les explications globales de référence
Rubrique parent: Examen des transactions de modèle