0 / 0
Retourner à la version anglaise de la documentation
Calcul des métriques avec le SDK Python
Dernière mise à jour : 25 oct. 2024
Calcul des métriques avec le SDK Python

Le SDK Python est une bibliothèque Python que vous pouvez utiliser pour configurer une base de données de journalisation, pour lier votre moteur d'apprentissage automatique et pour sélectionner et surveiller les déploiements.

Vous pouvez utiliser le Python SDK pour calculer les métriques et les algorithmes dans un environnement d'exécution notebook ou déchargé en tant que tâches Spark contre IBM Analytics Engine pour les évaluations de modèles prompts et traditionnels.

À partir de la version 3.0.14 du SDK Python, le calcul des mesures d'équité et des algorithmes d'explication suivants est pris en charge :

Transformateur FairScore

Vous pouvez utiliser le transformateur FairScore comme technique d'atténuation du biais post-traitement. Cette technique transforme les estimations de probabilité ou les scores des modèles de classification binaire probabiliste concernant les objectifs d'équité. Pour utiliser FairScore Transformer, vous devez former un transformateur de score équitable.

Post-processeur d'équité individuelle

Le post-processeur d'équité individuelle est un algorithme de transformation de post-traitement qui transforme les scores individuels pour atteindre l'équité individuelle. Vous pouvez l'utiliser avec le SDK Python pour prendre en charge la classification de texte multi-classe. Vous devez entraîner cet algorithme avant de pouvoir l'utiliser pour transformer les sorties de modèle.

Réduction des entrées

Vous pouvez utiliser l'algorithme de réduction d'entrée pour calculer l'ensemble minimal de fonctions que vous devez spécifier afin de maintenir la cohérence des prévisions du modèle. L'algorithme exclut les fonctions qui n'affectent pas les prévisions du modèle.

Compensation de probabilité

La compensation de vraisemblance (LC) est un cadre permettant d'expliquer les écarts de la prédiction d'un modèle de boîte noire par rapport aux données de référence. Avec les données de test et la fonction de prédiction d'un modèle de boîte noire, la LC peut identifier les anomalies dans les données d'essai et expliquer ce qui a causé l'anomalie de l'échantillon. L'explication de la LC est fournie en tant que deltas, qui lorsqu'elle est ajoutée aux données d'essai originales ou à l'anomalie, converge la prédiction du modèle aux données de référence. LC fournit des explications locales et n'est prise en charge que pour les modèles de régression.

Modèle interprétable local-explications indépendantes (LIME)

LIME identifie les fonctions les plus importantes pour un point de données spécifique en analysant jusqu'à 5000 autres points de données proches. Pour un paramétrage idéal, les caractéristiques les plus importantes dans LIME sont celles qui ont le plus d'importance pour ce point de données spécifique. Vous pouvez générer des explications LIME pour les modèles avec des données multimodales qui contiennent des fonctions avec des données structurées et non structurées. Les données structurées peuvent contenir des données numériques et catégorielles. Les données non structurées peuvent contenir une colonne de texte.

Disparité individuelle moyenne

Vous pouvez utiliser la disparité individuelle moyenne pour vérifier si votre modèle génère des prévisions ou des scores similaires pour des échantillons similaires. Cette métrique calcule la différence dans les estimations de probabilité des modèles de classification multi-classe pour des échantillons similaires.

Analyse de sous-ensemble multidimensionnel

Vous pouvez utiliser l'algorithme d'analyse de sous-ensemble multidimensionnel comme méthode d'analyse de biais générale. Cette méthode détecte et identifie les sous-groupes de caractéristiques ayant un biais prédictif statistiquement significatif pour un discriminant binaire probabiliste. Cet algorithme vous aide à déterminer les fonctions qui constituent les attributs protégés et les valeurs de ces fonctions qui constituent le groupe privilégié pour les évaluations de surveillance.

Mesures de performance

Vous pouvez utiliser les métriques de mesure des performances suivantes pour évaluer les modèles avec une matrice de confusion qui est calculée à l'aide de données de référence et de prévisions de modèle à partir d'échantillons de données:

  • différente_moyenne_odds_
  • différente_moyenne_abs_odds_différence
  • erreur_différente_taux
  • taux_erreur_ratio
  • false_negative_rate_difference
  • faut_négative_rate_ratio
  • false_positive_rate_difference
  • faut_positive_rate_ratio
  • false_discovery_rate_difference
  • Rapport de taux de taux de reconnaissance de false_discovery_rate_ratio
  • false_omission_rate_difference
  • false_omission_rate_ratio

Extraction des attributs protégés

L'algorithme d'extraction d'attribut protégé transforme les fichiers texte en fichiers structurés. L'algorithme segmente les données texte, compare les données aux modèles que vous spécifiez et extrait l'attribut protégé du texte pour créer des données structurées. Vous pouvez utiliser ces données structurées pour détecter les préjugés contre l'attribut protégé à l'aide d'un algorithme de détection des préjugés. L'algorithme d'extraction d'attribut protégé ne prend en charge que le sexe en tant qu'attribut protégé.

Perturbation des attributs protégés

L'algorithme de perturbation des attributs protégés génère des instructions contrefactuelles en identifiant les modèles d'attributs protégés dans les ensembles de données texte. Il segmente également le texte et perturbe les mots clés dans les données texte pour générer des instructions. Vous pouvez utiliser les ensembles de données originales et perturbées pour détecter un biais par rapport à l'attribut de protection à l'aide d'un algorithme de détection de biais. L'algorithme de perturbation des attributs protégés ne prend en charge que le sexe en tant qu'attribut protégé.

Prototiaire d'explainer

L'explicateur protodash identifie les données d'entrée d'un ensemble de référence nécessitant des explications. Cette méthode minimise la différence de moyenne maximale (MMD) entre les points de données de référence et un certain nombre d'instances sélectionnées à partir des données d'apprentissage. Pour vous aider à mieux comprendre les prévisions de votre modèle, les instances de données d'entraînement imitent une distribution similaire à celle des points de données de référence.

Explant Shapley Additif (SHAP)

SHAP est une approche de la théorie des jeux qui explique la sortie des modèles d'apprentissage automatique. Il connecte une allocation de crédit optimale avec des explications locales en utilisant les valeurs de Shapley et leurs extensions associées.

SHAP affecte à chaque fonction de modèle une valeur d'importance pour une prévision particulière, appelée valeur de Shapley. La valeur de Shapley est la contribution marginale moyenne d'une valeur de fonction dans tous les groupes possibles de fonctions. Les valeurs SHAP des caractéristiques d'entrée sont les sommes de la différence entre la sortie de la ligne de base ou du modèle attendu et la sortie du modèle en cours pour la prévision qui est expliquée. La sortie du modèle de référence peut être basée sur le récapitulatif des données de formation ou sur tout sous-ensemble de données pour lesquelles des explications doivent être générées.

Les valeurs Shapley d'un ensemble de transactions peuvent être combinées pour obtenir des explications globales qui donnent une vue d'ensemble des caractéristiques d'un modèle qui sont les plus importantes. Vous pouvez générer des explications SHAP pour les modèles de texte non structuré afin de comprendre comment les résultats sont prévus.

Différentiel empirique lissé (SED)

Le SED est une métrique d'équité que vous pouvez utiliser pour décrire l'équité des prévisions de votre modèle. SED quantifie le différentiel dans la probabilité de résultats favorables et défavorables entre les groupes qui se croisent et qui sont divisés par des caractéristiques. Tous les groupes intersectants sont égaux, de sorte qu'il n'y a pas de groupes privilégiés ou non privilégiés. Ce calcul produit une valeur SED qui est le rapport minimum de la probabilité lissée de Dirichlet pour des résultats favorables et défavorables entre les groupes intersectants dans le jeu de données. La valeur est comprise entre 0 et 1, à l'exclusion des valeurs 0 et 1, et une valeur plus grande indique un meilleur résultat.

Différence de parité statistique

La différence de parité statistique est une mesure d'équité que vous pouvez utiliser pour décrire l'équité de vos prévisions de modèle. C'est la différence entre le rapport des résultats favorables dans les groupes non privilégiés et les groupes privilégiés. Cette valeur peut être calculée à partir de l'ensemble de données d'entrée ou de la sortie du fichier à partir d'un ensemble de données de discriminant ou de prévision. La valeur 0 implique que les deux groupes bénéficient d'avantages égaux. Une valeur inférieure à 0 implique un bénéfice plus élevé pour le groupe privilégié. Une valeur supérieure à 0 implique un bénéfice plus élevé pour le groupe non privilégié.