0 / 0
Retourner à la version anglaise de la documentation
Surface sous la métrique d'évaluation PR
Dernière mise à jour : 30 janv. 2025
Surface sous la métrique d'évaluation PR

L'aire sous la métrique PR mesure l'équilibre entre l'identification correcte des classes positives et la recherche de toutes les classes positives.

Détails de l'indicateur

L'aire sous le rappel de précision (PR) est une mesure d'évaluation de la qualité qui mesure la qualité de la performance des modèles d'apprentissage automatique de classification binaire dans watsonx.governance.

Portée

L'aire sous la métrique PR évalue uniquement les modèles d'apprentissage automatique.

  • Types d'actifs d'IA : Modèles d'apprentissage automatique

  • Type de problème d'apprentissage automatique : Classification binaire

Scores et valeurs

L'aire sous le score de la métrique PR indique dans quelle mesure le modèle équilibre la précision et le rappel. Des scores plus élevés indiquent une meilleure performance du modèle dans l'identification et la recherche de classes positives.

  • Plage de valeurs : 0.0-1.0
  • Meilleure note possible : 1.0
  • Valeurs de graphique : dernière valeur dans la période

Un score de 0.5 suggère une supposition aléatoire, tandis qu'un score de 1.0 représente une classification parfaite.

Paramètres

Seuil par défaut : Limite inférieure = 80%

Processus d'évaluation

L'aire sous PR est calculée en traçant la précision en fonction du rappel pour différentes valeurs de seuil. Pour chaque seuil, une matrice de confusion est générée qui spécifie les classes de vrais positifs, de faux positifs et de faux négatifs.

La précision et le rappel sont calculés avec ces classes et tracés pour créer la courbe PR. La surface sous cette courbe est calculée pour générer le score métrique.

Calculs

L'aire sous PR calcule le total de la précision et du rappel à l'aide de la formule suivante :

la zone sous la formule PR est affichée

La précision (P) est calculée comme le nombre de vrais positifs (Tp) sur le nombre de vrais positifs plus le nombre de faux positifs (Fp) avec la formule suivante :

la formule de précision est affichée

Le rappel (R) est calculé comme le nombre de vrais positifs (Tp) sur le nombre de vrais positifs plus le nombre de faux négatifs (Fn) avec la formule suivante :

la formule de rappel est affichée

Sujet parent : Mesures d'évaluation