0 / 0
Retourner à la version anglaise de la documentation
Mesure d'évaluation de la précision
Dernière mise à jour : 30 janv. 2025
Mesure d'évaluation de la précision

L'indicateur de précision mesure la justesse des prédictions de votre modèle en calculant la proportion de résultats corrects par rapport au nombre total de résultats.

Détails de l'indicateur

La précision est un indicateur de qualité qui mesure la qualité des performances des modèles d'apprentissage automatique de classification binaire et multiclasse sur le site watsonx.governance.

Portée

L'indicateur de précision évalue uniquement les modèles d'apprentissage automatique.

  • Types d'actifs d'IA : Modèles d'apprentissage automatique
  • Type de problème d'apprentissage automatique :
    • Classification binaire
    • Classification multiclasse

Scores et valeurs

Le score de la métrique de précision indique la proportion de prédictions correctes effectuées par votre modèle par rapport au nombre total de prédictions. Des scores plus élevés indiquent que davantage de prédictions correctes ont été faites.

  • Plage de valeurs : 0.0-1.0
  • Meilleure note possible : 1.0
  • Valeurs de graphique : dernière valeur dans la période
  • Ratios :
    • À 0 : aucune prédiction correcte
    • Plus de 0 : indique une précision croissante avec davantage de prédictions correctes

Paramètres

Seuil par défaut : Limite inférieure = 80%

Calculs

La précision est calculée à l'aide de la formule suivante :

la formule de précision est affichée

  • TP = Vrais positifs
  • TN = Vrais négatifs
  • FP = Faux positifs
  • FN = Faux négatifs

Sujet parent : Mesures d'évaluation