0 / 0
Retourner à la version anglaise de la documentation
Évaluations de l'équité
Dernière mise à jour : 25 oct. 2024
Évaluations de l'équité

Vous pouvez configurer des évaluations de l'équité pour déterminer si votre modèle produit des résultats biaisés. Utilisez les évaluations de l'équité pour identifier les cas où votre modèle a tendance à fournir des résultats favorables plus souvent à un groupe qu'à un autre.

Configuration des évaluations d'équité pour les modèles d'apprentissage automatique

Si vous enregistrez les données de la charge utile lorsque vous préparez les évaluations du modèle, vous pouvez configurer les évaluations de l'équité.

Vous pouvez configurer les évaluations d'équité manuellement ou exécuter un bloc-notes personnalisé pour générer un fichier de configuration. Vous pouvez télécharger le fichier de configuration pour spécifier les paramètres de votre évaluation.

Lorsque vous configurez les évaluations d'équité manuellement, vous pouvez spécifier le groupe de référence (valeur) qui doit représenter les résultats favorables. Vous pouvez également sélectionner les attributs de modèle correspondants (caractéristiques) pour surveiller le biais (par exemple, l'âge ou le sexe), qui seront comparés au groupe de référence. En fonction de vos données de formation, vous pouvez également spécifier la taille minimale et maximale de l'échantillon pour les évaluations.

Sélectionner les résultats favorables et défavorables

Vous devez spécifier les résultats favorables et défavorables lors de la configuration des évaluations de l'équité. Les valeurs qui représentent un résultat favorable sont dérivées de la colonne label dans les données de formation. Par défaut, la colonne predictedLabel est définie comme la colonne prediction. Les valeurs favorites et non favorables doivent être spécifiées à l'aide de la valeur de la colonne prediction comme type de données de chaîne, par exemple 0 ou 1 lorsque vous téléchargez des données de formation.

Sélectionnez les fonctions

Vous devez sélectionner les caractéristiques qui sont les attributs du modèle que vous souhaitez évaluer pour détecter les biais. Par exemple, vous pouvez évaluer des caractéristiques telles que Sex ou Age pour la partialité. Seules sont prises en charge les caractéristiques qui sont de type de données d'équité catégoriel, numérique (entier), flottant ou double.

Les valeurs des fonctions sont spécifiées en tant que groupe de référence ou de surveillance. Le groupe surveillé représente les valeurs les plus à risque pour les résultats biaisés. Par exemple, pour la fonction Sex, vous pouvez définir Female et Non-binary en tant que groupes surveillés. Pour une fonction numérique, telle que Age, vous pouvez définir [18-25] comme groupe surveillé. Toutes les autres valeurs de la fonction sont alors considérées comme groupe de référence, par exemple, Sex=Maleou Age=[26,100].

Fixer le seuil d'équité

Vous pouvez définir le seuil d'équité pour spécifier une différence acceptable entre le pourcentage de résultats favorables pour le groupe surveillé et le pourcentage de résultats favorables pour le groupe de référence. Par exemple, si le pourcentage de résultats favorables pour un groupe dans votre modèle est de 70 % et que le seuil d'équité est fixé à 80 %, le moniteur d'équité détecte un biais dans votre modèle.

Fixer la taille d'échantillon

La taille des échantillons est utilisée pour déterminer comment traiter le nombre de transactions qui sont évaluées. Vous devez définir une taille d'échantillon minimale pour indiquer le plus petit nombre de transactions que vous souhaitez évaluer. Vous pouvez également définir une taille d'échantillon maximale pour indiquer le nombre maximum de transactions que vous souhaitez évaluer.

Test de biais indirect

Si vous sélectionnez un champ qui n'est pas une caractéristique d'apprentissage, appelé champ ajouté, le biais indirect est identifié en trouvant les valeurs associées dans les caractéristiques d'apprentissage. Par exemple, la profession "étudiant" peut impliquer un individu plus jeune même si le champ Age a été exclu de l'entraînement du modèle. Pour plus d'informations sur la configuration des évaluations de l'équité afin de prendre en compte les préjugés indirects, voir Configuration du moniteur d'équité pour les préjugés indirects.

Atténuation du biais

Le débiaisage passif et actif est utilisé pour l'évaluation des modèles d'apprentissage automatique. Le débiaisement passif révèle les biais, tandis que le débiaisement actif vous empêche de conserver le biais plus avant en modifiant le modèle en temps réel pour l'application en cours. Pour plus de détails sur l'interprétation des résultats et l'atténuation du biais dans un modèle, voir Examen des résultats d'une évaluation de l'équité.

Mesurer la performance avec la matrice de confusion

La matrice de confusion mesure la performance en classant les prédictions positives et négatives dans quatre quadrants qui représentent la mesure des valeurs réelles et prédites, comme le montre l'exemple suivant :

Réel/prédit Négatif Positif
Négatif TN point focal
Positif FN programme transactionnel

Le quadrant des vrais négatifs (TN) représente les valeurs qui sont réellement négatives et prédites comme négatives et le quadrant des vrais positifs (TP) représente les valeurs qui sont réellement positives et prédites comme positives. Le quadrant des faux positifs (FP) représente les valeurs qui sont en fait négatives mais prédites comme positives et le quadrant des faux négatifs (FN) représente les valeurs qui sont en fait positives mais prédites comme négatives.

Note : Les mesures de performance ne sont pas prises en charge pour les modèles de régression.

Thème parent: Configuration des évaluations de l'équité

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus