L'indicateur de précision mesure la justesse des prédictions de votre modèle en calculant la proportion de résultats corrects par rapport au nombre total de résultats.
Détails de l'indicateur
La précision est un indicateur de qualité qui mesure la qualité des performances des modèles d'apprentissage automatique de classification binaire et multiclasse sur le site watsonx.governance.
Portée
L'indicateur de précision évalue uniquement les modèles d'apprentissage automatique.
- Types d'actifs d'IA : Modèles d'apprentissage automatique
- Type de problème d'apprentissage automatique :
- Classification binaire
- Classification multiclasse
Scores et valeurs
Le score de la métrique de précision indique la proportion de prédictions correctes effectuées par votre modèle par rapport au nombre total de prédictions. Des scores plus élevés indiquent que davantage de prédictions correctes ont été faites.
- Plage de valeurs : 0.0-1.0
- Meilleure note possible : 1.0
- Valeurs de graphique : dernière valeur dans la période
- Ratios :
- À 0 : aucune prédiction correcte
- Plus de 0 : indique une précision croissante avec davantage de prédictions correctes
Paramètres
Seuil par défaut : Limite inférieure = 80%
Calculs
La précision est calculée à l'aide de la formule suivante :
- TP = Vrais positifs
- TN = Vrais négatifs
- FP = Faux positifs
- FN = Faux négatifs
Sujet parent : Mesures d'évaluation