La mesure de la différence du taux de faux positifs calcule le pourcentage de transactions négatives qui ont été incorrectement classées comme positives par votre modèle.
Détails de l'indicateur
La différence de taux de faux positifs est une mesure d'évaluation de l'équité qui peut aider à déterminer si votre actif produit des résultats biaisés.
Portée
La métrique de différence de taux de faux positifs évalue les actifs d'IA générative et les modèles d'apprentissage automatique.
- Types d'actifs d'IA :
- Modèles d'invite
- Modèles d'apprentissage automatique
- Tâches d'IA générative : Classification de texte
- Type de problème d'apprentissage automatique : Classification binaire
Scores et valeurs
Le score de la mesure de la différence du taux de faux positifs indique le rapport du taux de faux positifs pour les groupes surveillés et de référence.
- Plage de valeurs : 0.0-1.0
- Meilleur score possible : 0.0
- Ratios :
- Moins de 0 : moins de faux positifs dans le groupe surveillé
- À 0 : Les deux groupes ont des chances égales
- Plus de 0 : Taux de faux positifs plus élevé dans le groupe surveillé
Processus d'évaluation
Pour calculer la différence du taux de fausses découvertes, des matrices de confusion sont générées pour les groupes surveillés et de référence afin d'identifier le nombre de faux positifs et de vrais négatifs pour chaque groupe. Les valeurs de faux positif et de vrai négatif sont utilisées pour calculer le taux de faux positif pour chaque groupe. Le taux de faux positifs du groupe de référence est soustrait du taux de faux positifs du groupe surveillé pour calculer la différence de taux de faux positifs.
Calculs
La formule suivante est utilisée pour calculer le taux de faux positifs (FPR) :
La formule suivante est utilisée pour calculer la différence de taux de faux positifs :
Sujet parent : Indicateurs d'évaluation