Las explicaciones de las transacciones de tu modelo te ayudan a entender cómo se determinan las predicciones.
Puede analizar explicaciones locales para comprender el impacto de los factores para transacciones específicas o analizar explicaciones globales para comprender los factores generales que afectan a los resultados del modelo. El tipo de modelo que configure determina el tipo de explicación que puede utilizar para analizar las transacciones.
Se admiten explicaciones para modelos de texto estructurado, de imagen y no estructurado. Los modelos estructurados pueden utilizar problemas de clasificación binaria, de varias clases o de regresión. Los modelos de texto de imagen o no estructurados pueden utilizar problemas de clasificación binaria o multiclase.
Al configurar la explicabilidad, puede utilizar explicaciones agnósticas de modelos interpretables locales (LIME), explicaciones contrastivas o explicaciones aditivas de Shapley (SHAP) para analizar las transacciones.
LIME identifica qué características son más importantes para un punto de datos específico analizando hasta 5000 otros puntos de datos cercanos. En un escenario ideal, las características de mayor importancia en la LIME son las características más importantes para ese punto de datos específico.
Las explicaciones contrastivas calculan cuántos valores deben cambiar para cambiar la predicción o mantener la misma predicción. Los factores que necesitan el máximo cambio se consideran más importantes, por lo que las características con mayor importancia en las explicaciones contrastativas son las características en las que el modelo es menos sensible. Para las explicaciones contrastivas, se muestran los cambios máximos para el mismo resultado y los cambios mínimos para un resultado modificado. Estas categorías también se conocen como valores negativos pertinentes y positivos pertinentes. Estos valores ayudan a explicar el comportamiento del modelo en las proximidades del punto de datos para el que se genera una explicación.
SHAP es un enfoque teórico de juego que explica la salida de los modelos de aprendizaje automático. Conecta la asignación óptima de crédito con las explicaciones locales utilizando los valores de Shapley y sus extensiones relacionadas. SHAP asigna a cada característica de modelo un valor de importancia para una predicción determinada, que se denomina valor Shapley. El valor de Shapley es la contribución marginal media de un valor de característica en todos los grupos de características posibles. Los valores SHAP de las características de entrada son las sumas de la diferencia entre la salida de modelo de línea base o esperada y la salida de modelo actual para la predicción que se está explicando. El resultado del modelo base puede basarse en el resumen de los datos de entrenamiento o en cualquier subconjunto de datos para los que se deben generar explicaciones. Los valores de Shapley de un conjunto de transacciones se pueden combinar para obtener explicaciones globales que proporcionan una visión general de las características más importantes de un modelo.
Sólo se admiten explicaciones globales para las suscripciones en línea. Las explicaciones SHAP sólo dan soporte a datos tabulares.
Análisis de explicaciones locales
Puede utilizar diferentes métodos para ver las explicaciones locales.
Cuando revisa los resultados de la evaluación, puede seleccionar el enlace Número de explicaciones para abrir la ventana Seleccionar una explicación .
En la columna Acción , seleccione Explicar para visualizar la página de detalles Transacción . Los Detalles de transacciones proporcionan distintas explicaciones, en función de los métodos de explicación y los tipos de modelo que utilice.
Para modelos categóricos, en la pestaña Explicar , la página Detalles de transacción proporciona un análisis de las características que han influido en el resultado de la transacción con el método de explicación local que utiliza. Para SHAP, puede seleccionar los datos en segundo plano que utiliza en el menú Datos en segundo plano para volver a generar la explicación.
En la pestaña Inspeccionar, se generan explicaciones contrastivas avanzadas para modelos de clasificación binaria que puede utilizar para experimentar con características cambiando los valores para ver si cambia el resultado.
También puede ver diferentes explicaciones para el siguiente tipo de transacciones:
- Explicación de las transacciones de imagen
- Explicación de las transacciones de texto no estructurado
- Explicación de las transacciones tabulares
Explicación de las transacciones de imagen
Para los modelos de imagen, puede ver qué partes de una imagen contribuyen de forma positiva y negativa al resultado previsto. En el ejemplo siguiente, la imagen del panel positivo muestra las partes que han tenido un impacto positivo en la predicción. La imagen del panel negativo muestra las partes de las imágenes que han tenido un impacto negativo en el resultado.
También puede utilizar los cuadernos siguientes para generar explicaciones para los modelos de imagen:
Explicación de las transacciones de texto no estructurado
Para modelos de texto no estructurados, puede ver qué palabras clave han tenido un impacto positivo o negativo en la predicción del modelo. Los modelos de texto no estructurado explican la importancia de las palabras o señales.
La explicación también muestra la posición de las palabras clave identificadas en el texto original que se ha alimentado como entrada al modelo. Para cambiar el idioma, seleccione un idioma distinto en la lista. La explicación se ejecuta de nuevo utilizando un simbolizador diferente.
También puede utilizar el siguiente cuaderno para generar explicaciones para modelos de texto no estructurado:
Guía de aprendizaje para generar una explicación para un modelo basado en texto
Explicación de las transacciones tabulares
Para los modelos de clasificación tabular, puede ver las tres características principales que influyen positivamente en la predicción del modelo y las tres características principales que influyen negativamente en la predicción.
Para ver explicaciones locales, también puede seleccionar el separador Explicar una transacción para abrir la página Transacciones recientes . La página muestra todas las transacciones procesadas por el modelo.
Análisis de explicaciones globales
Si activa el método de explicación global SHAP o LIME al configurar la explicabilidad, puede ver los detalles de la métrica de estabilidad de la explicación global. La métrica de explicación global calcula el grado de coherencia en la explicación global a lo largo del tiempo.
Cuando analizas las explicaciones globales, también puedes ver los siguientes detalles:
Influencia de la característica
Puede ver las características más importantes en orden descendente de los valores medios absolutos SHAP o LIME para comprender qué características tienen mayor influencia en las predicciones del modelo.
Distribución de características
El gráfico de distribución de rasgos muestra cómo afectan los valores SHAP o LIME a las predicciones de los rasgos más importantes. Puede utilizar el gráfico para comprender la correlación entre las características y las predicciones.
Comparación
Puede ver una comparación de los cambios en la influencia de las características entre las explicaciones globales actuales y las explicaciones globales de referencia
Tema padre: Revisión de transacciones de modelo