Configure las evaluaciones de watsonx.governance en los espacios de despliegue para obtener información sobre el rendimiento del modelo. Al configurar evaluaciones, puede analizar los resultados de la evaluación y modelar registros de transacciones directamente en los espacios.
watsonx.governance evalúa los despliegues de modelo para ayudarle a medir el rendimiento y comprender las predicciones de modelo. Cuando configura evaluaciones de modelo, watsonx.governance genera métricas para cada evaluación que proporcionan distintos conocimientos que puede revisar. watsonx.governance también registra las transacciones que se procesan durante las evaluaciones para ayudarle a comprender cómo se determinan las predicciones del modelo. Para obtener más información, consulte Evaluación de modelos de IA con Watson OpenScale.
Si tiene una instancia de watsonx.governance suministrada, puede crear sin problemas un despliegue en línea y, a continuación, supervisar los resultados del despliegue para ver si son justos, de calidad, de desviación y de explicabilidad.
Un escenario típico sigue esta secuencia:
- Cree un espacio de despliegue y asocie una instancia de watsonx.governance con el espacio para habilitar todas las prestaciones de supervisión. Puede elegir el tipo de espacio, por ejemplo producción, o preproducción, en función de sus requisitos.
- Promocione un modelo de aprendizaje automático entrenado y datos de entrada (carga útil) al espacio de despliegue y cree un despliegue en línea para el modelo.
- En la pestaña Prueba de despliegue, proporcione los datos de entrada y vuelva a obtener las predicciones.
- En el separador Evaluaciones, configure la evaluación para supervisar la calidad, equidad y explicabilidad del despliegue. Proporcione todos los detalles de modelo necesarios para que Watson OpenScale pueda conectarse al modelo, los datos de entrenamiento y carga útil, y a un repositorio para almacenar los resultados de evaluación.
- Configure un supervisor de equidad para asegurarse de que el modelo está produciendo resultados imparciales. Seleccione campos para supervisar la equidad y, a continuación, establezca umbrales para medir predicciones para un grupo supervisado en comparación con un grupo de referencia. Por ejemplo, puede evaluar el modelo para asegurarse de que proporciona predicciones imparciales basadas en el género.
- Configure un supervisor de calidad para determinar el rendimiento del modelo basándose en el número de resultados correctos producidos por el modelo basándose en datos de prueba etiquetados denominados datos de comentarios. Establezca umbrales de calidad para realizar un seguimiento cuando un valor de métrica esté fuera de un rango aceptable.
- Configure un supervisor para la desviación para asegurarse de que los despliegues están actualizados y son coherentes. Utilice la importancia de característica para determinar el impacto de la desviación de característica en el modelo. Por ejemplo, una pequeña cantidad de desviación en una característica importante puede tener un impacto mayor en el modelo que una cantidad moderada de desviación en una característica menos importante.
- Puede supervisar los resultados del despliegue para conocer los factores que han llevado al modelo a determinar una predicción. Elija el método de explicación que mejor se adapte a sus necesidades. Por ejemplo, puede elegir el método SHAP (Shapley Additive EXplanations) para obtener explicaciones detalladas o el método LIME (Local Interpretable Model-Agnostic Explanations) para obtener explicaciones más rápidas.
- Por último, puede inspeccionar las evaluaciones de modelo para encontrar áreas en las que los pequeños cambios en unas pocas entradas resultarían en una decisión diferente. Casos de ejemplo de prueba para determinar si el cambio de entradas puede mejorar el rendimiento del modelo.
En las secciones siguientes se describe cómo configurar las evaluaciones de watsonx.governance y revisar la información de modelo en los espacios de despliegue:
Preparación para evaluar modelos en espacios
Si no tiene una base de datos asociada con la instancia de watsonx.governance , debe asociar una base de datos para poder ejecutar evaluaciones. Para asociar una base de datos, también debe pulsar Asociar base de datos en el recuadro de diálogo Base de datos necesaria para conectarse a una base de datos. Debe tener asignado el rol Admin para el proyecto y la instancia de watsonx.governance para asociar bases de datos.
Configuración de evaluaciones de Watson OpenScale en espacios
Después de asociar la instancia de Watson OpenScale , puede seleccionar despliegues para ver las pestañas Evaluaciones y Transacciones que puede utilizar para configurar evaluaciones y revisar la información de modelo. Para empezar a configurar evaluaciones de modelo en el espacio, puede seleccionar Configurar valores de evaluación de OpenScale para abrir un asistente que proporciona una serie guiada de pasos.
Puede evaluar los despliegues en línea sólo en el espacio de despliegue.
Proporcionar detalles de modelo
Para configurar evaluaciones de modelo, debe proporcionar detalles de modelo para habilitar watsonx.governance para comprender cómo se configura el modelo. Debe proporcionar detalles sobre los datos de entrenamiento y la salida del modelo.
Para obtener más información, consulte Proporcionar detalles del modelo.
Configuración de la explicabilidad
Puede configurar la explicabilidad en watsonx.governance para revelar qué características contribuyen al resultado previsto por el modelo para una transacción y predecir qué cambios producirían un resultado diferente. Puede optar por configurar explicaciones locales para analizar el impacto de los factores para transacciones de modelo específicas y configurar explicaciones globales para analizar los factores generales que afectan a los resultados del modelo.
Para obtener más información, consulte Configuración de la explicabilidad.
Configuración de evaluaciones de equidad
Puede configurar evaluaciones de equidad para determinar si el modelo genera resultados sesgados para distintos grupos. Para configurar evaluaciones de equidad, puede especificar el grupo de referencia que espera que represente los resultados favorables y las métricas de equidad que desea utilizar. También puede seleccionar características que se comparan con el grupo de referencia para evaluarlas en busca de sesgo.
Para obtener más información, consulte Configuración de evaluaciones de equidad.
Configuración de evaluaciones de calidad
Puede configurar evaluaciones de calidad para comprender cómo su modelo predice resultados precisos. Para configurar evaluaciones de calidad, debe especificar umbrales para cada métrica para habilitar watsonx.governance para identificar cuándo declina la calidad del modelo.
Para obtener más información, consulte Configuración de evaluaciones de calidad.
Configuración de evaluaciones de desviación v2
Puede configurar evaluaciones de desviación v2 para medir los cambios en los datos a lo largo del tiempo para asegurarse de que obtiene resultados coherentes para el modelo. Para configurar evaluaciones de desviación v2 , debe establecer umbrales que permitan a watsonx.governance identificar los cambios en la salida del modelo, la precisión de las predicciones y la distribución de los datos de entrada. También debe seleccionar características importantes para habilitar watsonx.governance para medir el cambio en la distribución de valores.
Para obtener más información, consulte Configuración de evaluaciones de desviación v2.
Configuración de evaluaciones de desviación
Puede configurar evaluaciones de desviación para habilitar watsonx.governance para detectar caídas en la precisión y la coherencia de datos en el modelo. Para configurar evaluaciones de desviación, debe establecer umbrales para habilitar watsonx.governance para establecer una línea base de precisión y coherencia para el modelo.
Para obtener más información, consulte Configuración de evaluaciones de desviación.
Ejecución de evaluaciones
Después de configurar las evaluaciones, puede cerrar el asistente para ejecutar las evaluaciones. Para ejecutar las evaluaciones, debe seleccionar Evaluar ahora en el menú Acciones de la pestaña Evaluaciones para enviar transacciones de modelo.
Revisión de los resultados de la evaluación
Puede analizar los resultados de evaluación en la pestaña Evaluaciones para obtener información sobre el rendimiento del modelo. Para analizar los resultados de la evaluación, puede pulsar la flecha en una sección de evaluación o utilizar el menú Acciones para ver detalles sobre el modelo.
Para obtener más información, consulte Revisión de los resultados de la evaluación.
Revisión de transacciones de modelo
Puede analizar transacciones de modelo en la pestaña Transacciones para comprender cómo el modelo predice los resultados y predecir qué cambios pueden provocar resultados diferentes. Para analizar transacciones, puede optar por ver explicaciones que proporcionen detalles sobre cómo se determinan las predicciones del modelo.
Para obtener más información, consulte Explicación de transacciones de modelo.
Tema padre: Gestión de despliegues predictivos