0 / 0
Volver a la versión inglesa de la documentación
explicando las transacciones del modelo
Última actualización: 05 dic 2024
explicando las transacciones del modelo

Las explicaciones de las transacciones de tu modelo te ayudan a entender cómo se determinan las predicciones.

Puede analizar explicaciones locales para comprender el impacto de los factores para transacciones específicas o analizar explicaciones globales para comprender los factores generales que afectan a los resultados del modelo. El tipo de modelo que configure determina el tipo de explicación que puede utilizar para analizar las transacciones.

Se admiten explicaciones para modelos de texto estructurado, de imagen y no estructurado. Los modelos estructurados pueden utilizar problemas de clasificación binaria, de varias clases o de regresión. Los modelos de texto de imagen o no estructurados pueden utilizar problemas de clasificación binaria o multiclase.

Al configurar la explicabilidad, puede utilizar explicaciones agnósticas de modelos interpretables locales (LIME), explicaciones contrastivas o explicaciones aditivas de Shapley (SHAP) para analizar las transacciones.

LIME identifica qué características son más importantes para un punto de datos específico analizando hasta 5000 otros puntos de datos cercanos. En un escenario ideal, las características de mayor importancia en la LIME son las características más importantes para ese punto de datos específico.

Las explicaciones contrastivas calculan cuántos valores deben cambiar para cambiar la predicción o mantener la misma predicción. Los factores que necesitan el máximo cambio se consideran más importantes, por lo que las características con mayor importancia en las explicaciones contrastativas son las características en las que el modelo es menos sensible. Para las explicaciones contrastivas, se muestran los cambios máximos para el mismo resultado y los cambios mínimos para un resultado modificado. Estas categorías también se conocen como valores negativos pertinentes y positivos pertinentes. Estos valores ayudan a explicar el comportamiento del modelo en las proximidades del punto de datos para el que se genera una explicación.

SHAP es un enfoque teórico de juego que explica la salida de los modelos de aprendizaje automático. Conecta la asignación óptima de crédito con las explicaciones locales utilizando los valores de Shapley y sus extensiones relacionadas. SHAP asigna a cada característica de modelo un valor de importancia para una predicción determinada, que se denomina valor Shapley. El valor de Shapley es la contribución marginal media de un valor de característica en todos los grupos de características posibles. Los valores SHAP de las características de entrada son las sumas de la diferencia entre la salida de modelo de línea base o esperada y la salida de modelo actual para la predicción que se está explicando. El resultado del modelo base puede basarse en el resumen de los datos de entrenamiento o en cualquier subconjunto de datos para los que se deben generar explicaciones. Los valores de Shapley de un conjunto de transacciones se pueden combinar para obtener explicaciones globales que proporcionan una visión general de las características más importantes de un modelo.

Nota:

Sólo se admiten explicaciones globales para las suscripciones en línea. Las explicaciones SHAP sólo dan soporte a datos tabulares.

Análisis de explicaciones locales

Puede utilizar diferentes métodos para ver las explicaciones locales.

Cuando revisa los resultados de la evaluación, puede seleccionar el enlace Número de explicaciones para abrir la ventana Seleccionar una explicación .

Seleccionar una ventana de explicación

En la columna Acción , seleccione Explicar para visualizar la página de detalles Transacción . Los Detalles de transacciones proporcionan distintas explicaciones, en función de los métodos de explicación y los tipos de modelo que utilice.

Para modelos categóricos, en la pestaña Explicar , la página Detalles de transacción proporciona un análisis de las características que han influido en el resultado de la transacción con el método de explicación local que utiliza. Para SHAP, puede seleccionar los datos en segundo plano que utiliza en el menú Datos en segundo plano para volver a generar la explicación.

Detalles de transacción

En la pestaña Inspeccionar, se generan explicaciones contrastivas avanzadas para modelos de clasificación binaria que puede utilizar para experimentar con características cambiando los valores para ver si cambia el resultado.

Los detalles de transacción de la pestaña Inspeccionar muestran valores que pueden producir un resultado diferente

También puede ver diferentes explicaciones para el siguiente tipo de transacciones:

Explicación de las transacciones de imagen

Para los modelos de imagen, puede ver qué partes de una imagen contribuyen de forma positiva y negativa al resultado previsto. En el ejemplo siguiente, la imagen del panel positivo muestra las partes que han tenido un impacto positivo en la predicción. La imagen del panel negativo muestra las partes de las imágenes que han tenido un impacto negativo en el resultado.

El detalle de confianza de clasificación de imagen de explicabilidad se muestra con una imagen de una rana de árbol. Las diferentes partes de la imagen se resaltan en marcos separados. Cada parte muestra hasta qué punto ayudó o no ayudó a determinar que la imagen es una rana.

También puede utilizar los cuadernos siguientes para generar explicaciones para los modelos de imagen:

Explicación de las transacciones de texto no estructurado

Para modelos de texto no estructurados, puede ver qué palabras clave han tenido un impacto positivo o negativo en la predicción del modelo. Los modelos de texto no estructurado explican la importancia de las palabras o señales.

Se muestra el gráfico de clasificación de imágenes de explicabilidad. Muestra los niveles de confianza para el texto no estructurado

La explicación también muestra la posición de las palabras clave identificadas en el texto original que se ha alimentado como entrada al modelo. Para cambiar el idioma, seleccione un idioma distinto en la lista. La explicación se ejecuta de nuevo utilizando un simbolizador diferente.

También puede utilizar el siguiente cuaderno para generar explicaciones para modelos de texto no estructurado:

Guía de aprendizaje para generar una explicación para un modelo basado en texto

Explicación de las transacciones tabulares

Para los modelos de clasificación tabular, puede ver las tres características principales que influyen positivamente en la predicción del modelo y las tres características principales que influyen negativamente en la predicción.

Se muestra el gráfico de clasificación de imágenes de explicabilidad. Muestra los niveles de confianza para el modelo de datos tabular

Para ver explicaciones locales, también puede seleccionar el separador Explicar una transacción Explicar una transacción para abrir la página Transacciones recientes . La página muestra todas las transacciones procesadas por el modelo.

Análisis de explicaciones globales

Si activa el método de explicación global SHAP o LIME al configurar la explicabilidad, puede ver los detalles de la métrica de estabilidad de la explicación global. La métrica de explicación global calcula el grado de coherencia en la explicación global a lo largo del tiempo.

Se muestra el gráfico de estabilidad de la explicación global. Muestra el grado de coherencia de las explicaciones globales a lo largo del tiempo

Cuando analizas las explicaciones globales, también puedes ver los siguientes detalles:

Influencia de la característica

Puede ver las características más importantes en orden descendente de los valores medios absolutos SHAP o LIME para comprender qué características tienen mayor influencia en las predicciones del modelo.

Se muestra el gráfico de influencia de las características. Muestra las características más importantes en orden descendente de los valores medios absolutos SHAP o LIME.

Distribución de características

El gráfico de distribución de rasgos muestra cómo afectan los valores SHAP o LIME a las predicciones de los rasgos más importantes. Puede utilizar el gráfico para comprender la correlación entre las características y las predicciones.

Se muestra el gráfico de distribución de características. Muestra la correlación entre las características y las predicciones.

Comparación

Puede ver una comparación de los cambios en la influencia de las características entre las explicaciones globales actuales y las explicaciones globales de referencia

visualización de métricas de explicación global

Tema padre: Revisión de transacciones de modelo

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información