Configuración de evaluaciones de modelo

Última actualización: 25 oct 2024
Configuración de evaluaciones de modelo

Puede configurar las evaluaciones para generar información sobre el rendimiento de su modelo.

Puede configurar los siguientes tipos de evaluaciones:

  • Calidad
    Evalúa cómo el modelo predice los resultados correctos que coinciden con los datos de prueba etiquetados.
  • Equidad
    Evalúa si el modelo produce resultados sesgados que proporcionan resultados favorables para un grupo sobre otro.
  • Deriva
    Evaluates how your model changes in accuracy and data consistency by comparing recent transactions to your training data.
  • Desviación v2
    Evalúa los cambios en la salida del modelo, la precisión de las predicciones y la distribución de los datos de entrada.
  • Salud del modelo
    Evalúa la eficacia con la que el despliegue del modelo procesa las transacciones.
  • Calidad de IA generativa
    ' Mide lo bien que tu foundation model realiza las tareas

Si está evaluando modelos de aprendizaje automático tradicionales, también puede crear evaluaciones y métricas personalizadas para generar una mayor variedad de perspectivas sobre el rendimiento de su modelo.

Cada evaluación genera métricas que puede analizar para obtener información sobre el rendimiento del modelo.

Al configurar las evaluaciones, puede optar por ejecutarlas de forma continua en los siguientes intervalos programados por defecto:

Evaluación Calendario por defecto de la suscripción en línea Programación por defecto de la suscripción por lotes
Calidad 1 hora 1 semana
Equidad 1 hora 1 semana
Desviación 3 horas 1 semana
Desviación v2 1 día N/D
Explicabilidad 1 semana 1 semana
Estado del modelo 1 hora N/D
Calidad de la IA generativa 1 hora N/D

Tema principal: Evaluación de modelos de IA con Watson OpenScale