Vous pouvez configurer l'explicabilité pour révéler les caractéristiques qui contribuent au résultat prédit par le modèle pour une transaction et prédire les changements qui entraîneraient un résultat différent.
Vous pouvez configurer l'explicabilité pour analyser les facteurs qui influencent les résultats de votre modèle. Vous pouvez choisir de configurer des explications locales pour analyser l'impact des facteurs pour des transactions de modèle spécifiques et de configurer des explications globales pour analyser les facteurs généraux qui ont un impact sur les résultats du modèle.
Vous pouvez configurer l'explicabilité manuellement ou exécuter un carnet de notes personnalisé pour générer une archive d'explicabilité.
Lorsque vous exécutez le bloc-notes, vous pouvez télécharger l'archive pour spécifier les paramètres de votre évaluation. Si vous ne fournissez pas de données d'entraînement, vous devez générer l'archive pour configurer l'explicabilité.
Lorsque vous configurez manuellement l'explicabilité, vous devez définir des paramètres pour déterminer le type d'explications que vous souhaitez générer. Vous pouvez également choisir de spécifier des caractéristiques contrôlables et d'activer le support de langue.
Configuration des paramètres
Pour configurer les paramètres, vous devez spécifier les méthodes d'explication que vous souhaitez utiliser. Vous devez choisir d'utiliser SHAP (Shapley Additive explanations) ou LIME (Local Interpretable Model-Agnostic explanations) comme méthode d'explication locale. Si vous utilisez SHAP comme méthode d'explication locale, vous devez spécifier le nombre de perturbations que le modèle génère pour chaque explication locale et sélectionner une option pour l'utilisation des données d'arrière-plan. Les données de base sont utilisées pour déterminer l'influence des caractéristiques sur les résultats des explications. Si vous utilisez LIME comme explication locale, vous ne devez spécifier que le nombre de perturbations.
En activant le paramètre Explication globale, vous pouvez également choisir d'utiliser SHAP (Shapley Additive explanations) ou LIME (Local Interpretable Model-Agnostic explanations) comme méthode d'explication globale. Pour configurer la méthode d'explication globale, vous devez spécifier la taille de l'échantillon de transactions types qui est utilisé pour générer des explications continues et un calendrier qui détermine quand les explications sont générées. Vous devez également spécifier un seuil de stabilité de l'explication globale et sélectionner une option qui spécifie comment l'explication globale de la ligne de base est générée. Ces paramètres sont utilisés pour calculer la métrique de stabilité de l'explication globale.
Caractéristiques contrôlables
Les caractéristiques contrôlables sont des caractéristiques qui peuvent être modifiées et qui ont un impact significatif sur les résultats de votre modèle. Vous pouvez spécifier des caractéristiques contrôlables pour identifier les changements susceptibles de produire des résultats différents.
Support linguistique
Si vous activez la prise en charge des langues, vous pouvez analyser les langues qui ne sont pas délimitées par des espaces pour déterminer l'explicabilité. Vous pouvez configurer explainability pour qu'il détecte automatiquement les langues prises en charge ou vous pouvez spécifier manuellement les langues prises en charge que vous souhaitez analyser. Vous ne pouvez pas configurer la prise en charge du langage pour les modèles structurés et d'image.
Mesures d'explicabilité prises en charge
Les mesures d'explicabilité suivantes sont prises en charge :
Stabilité de l'explication globale
La stabilité de l'explication globale indique le degré de cohérence de l'explication globale dans le temps
- Description :
Une explication globale est générée avec les données de base que vous fournissez lorsque vous configurez les évaluations de l'explicabilité. Les explications globales identifient les caractéristiques qui ont le plus d'impact sur le comportement de votre modèle. Lorsque de nouvelles explications globales sont générées, chaque explication est comparée à l'explication globale de référence pour calculer la stabilité de l'explication globale. La stabilité des explications globales utilise la formule du gain cumulatif actualisé normalisé (NDGC) pour déterminer la similarité entre les nouvelles explications globales et l'explication globale de référence.
Comment cela fonctionne-t-il? Des valeurs élevées indiquent une plus grande uniformité par rapport à l'explication de base
- A 0: Les explications sont très différentes.
- 1: Les explications sont très similaires.
Faites le calcul:
La formule suivante est utilisée pour calculer la stabilité de l'explication globale :
DCGₚ
nDCGₚ = _____________________
IDCGₚ
Limitations
- Lorsque vous configurez les paramètres pour les explications globales SHAP, les limitations suivantes existent :
- La taille de l'échantillon que vous utilisez pour configurer les explications peut affecter le nombre d'explications générées au cours de périodes spécifiques. Si vous tentez de générer plusieurs explications pour des échantillons de grande taille, vos transactions risquent de ne pas être traitées.
- Si vous configurez des explications pour plusieurs abonnements, vous devez spécifier les valeurs par défaut pour les paramètres de taille d'échantillon et de nombre de perturbations lorsque votre déploiement contient 20 fonctionnalités ou moins.
- Les signes égaux (=) dans les noms de colonnes ne sont pas pris en charge dans vos données. Le signe égal peut provoquer une erreur.
- L'explicabilité n'est pas prise en charge pour les modèles multi-classes SPSS qui ne renvoient que la probabilité de la classe gagnante.
En savoir plus
explication des transactions de modèle
Thème parent : Évaluer les modèles d'IA