Volver a la versión inglesa de la documentación

Métricas de evaluación de precisión

Última actualización: 04 feb 2025
Métricas de evaluación de precisión

La métrica de precisión mide la exactitud de las predicciones de su modelo calculando la proporción de resultados correctos entre el número total de resultados.

Detalles de métrica

La precisión es una métrica de evaluación de la calidad que mide la calidad del rendimiento de los modelos de aprendizaje automático de clasificación binaria y multiclase en watsonx.governance.

Ámbito

La métrica de precisión evalúa únicamente los modelos de aprendizaje automático.

  • Tipos de activos de IA : modelos de aprendizaje automático
  • Tipo de problema de aprendizaje automático :
    • Clasificación binaria
    • Clasificación de varias clases

Puntuaciones y valores

La puntuación métrica de precisión indica la proporción de predicciones correctas que realiza su modelo en comparación con el número total de predicciones. Las puntuaciones más altas indican que se hacen más predicciones correctas.

  • Rango de valores : 0.0-1.0
  • Mejor puntuación posible : 1.0
  • Valores de gráfico: Último valor en el margen de tiempo
  • Ratios :
    • A las 0:00:00 no hay predicciones correctas
    • Más de 0: indica una precisión creciente con predicciones más correctas

Valores

Umbral predeterminado : Límite inferior = 80 %

Cómo se calcula

La precisión se calcula con la siguiente fórmula:

se muestra la fórmula de precisión

  • TP = Verdaderos positivos
  • TN = Negativos verdaderos
  • FP = Falsos positivos
  • FN = Falsos negativos

Tema principal: Métricas de evaluación