Puede configurar las evaluaciones para generar información sobre el rendimiento de su modelo.
Puede configurar los siguientes tipos de evaluaciones:
Calidad Evalúa cómo el modelo predice los resultados correctos que coinciden con los datos de prueba etiquetados.
Equidad Evalúa si el modelo produce resultados sesgados que proporcionan resultados favorables para un grupo sobre otro.
DerivaModelos admitidos: sólo modelos de aprendizaje automático Evaluates how your model changes in accuracy and data consistency by comparing recent transactions to your training data.
Desviación v2 Evalúa los cambios en la salida del modelo, la precisión de las predicciones y la distribución de los datos de entrada.
Salud del modelo Evalúa la eficacia con la que el despliegue del modelo procesa las transacciones.
Calidad de IA generativaModelos respaldados: Sólo modelos LLM ' Mide lo bien que tu foundation model realiza las tareas
Si está evaluando modelos de aprendizaje automático tradicionales, también puede crear evaluaciones y métricas personalizadas para generar una mayor variedad de perspectivas sobre el rendimiento de su modelo.
Cada evaluación genera métricas que puede analizar para obtener información sobre el rendimiento del modelo.
Al configurar las evaluaciones, puede optar por ejecutarlas de forma continua en los siguientes intervalos programados por defecto:
Evaluación
Calendario por defecto de la suscripción en línea
Programación por defecto de la suscripción por lotes