0 / 0
Volver a la versión inglesa de la documentación
Configurar la explicabilidad
Última actualización: 03 dic 2024
Configurar la explicabilidad

Puede configurar la explicabilidad para revelar qué características contribuyen al resultado previsto del modelo para una transacción y predecir qué cambios darían lugar a un resultado diferente.

Puede configurar la explicabilidad para analizar los factores que influyen en los resultados de su modelo. Puede optar por configurar explicaciones locales para analizar el impacto de los factores para transacciones de modelo específicas y configurar explicaciones globales para analizar los factores generales que afectan a los resultados del modelo.

Puede configurar la explicabilidad manualmente o puede ejecutar un cuaderno personalizado para generar un archivo de explicabilidad.

Cuando ejecute el cuaderno, puede cargar el archivo para especificar los parámetros de su evaluación. Si no proporciona datos de entrenamiento, deberá generar el archivo para configurar la explicabilidad.

Cuando configura la explicabilidad manualmente, debe establecer parámetros para determinar el tipo de explicaciones que desea generar. También puede elegir especificar características controlables y habilitar el soporte de idioma.

Configurar parámetros

Para configurar los parámetros, debe especificar los métodos de explicación que desea utilizar. Debe elegir utilizar SHAP (Shapley Additive explanations) o LIME (Local Interpretable Model-Agnostic explanations) como método de explicación local. Si utiliza SHAP como método de explicación local, debe especificar el número de perturbaciones que genera el modelo para cada explicación local y seleccionar una opción para utilizar datos de fondo. Los datos de fondo se utilizan para determinar la influencia de las características en los resultados de las explicaciones. Si utiliza LIME como explicación local, sólo debe especificar el número de perturbaciones.

Al activar el parámetro Explicación global, también puede optar por utilizar SHAP (explicaciones aditivas de Shapley) o LIME (explicaciones de modelo-agnóstico interpretable local) como método de explicación global. Para configurar el método de explicación global, debe especificar el tamaño de la muestra de transacciones modelo que se utiliza para generar explicaciones continuas y un calendario que determine cuándo se generan las explicaciones. También debe especificar un umbral de estabilidad de la explicación global y seleccionar una opción que especifique cómo se genera una explicación global de referencia. Estos ajustes se utilizan para calcular la métrica global de estabilidad de la explicación.

Los parámetros de explicabilidad se muestran con la explicación global activada y LIME seleccionado como método de explicación global y local

Características controlables

Las características controlables son características que se pueden cambiar y tienen un impacto significativo en los resultados del modelo. Puede especificar características controlables para identificar los cambios que podrían producir resultados diferentes.

Soporte de idiomas

Si activa la compatibilidad lingüística, puede analizar los idiomas que no están delimitados por espacios para determinar la explicabilidad. Puede configurar explainability para que detecte automáticamente los idiomas admitidos o puede especificar manualmente los idiomas admitidos que desee analizar. No puede configurar el soporte de idioma para modelos estructurados y de imagen.

Métricas de explicabilidad compatibles

Se admiten las siguientes métricas de explicabilidad:

Estabilidad de explicación global

La estabilidad de la explicación global da el grado de coherencia de la explicación global a lo largo del tiempo

  • Descripción:

Se genera una explicación global con los datos de referencia que usted proporciona al configurar las evaluaciones de explicabilidad. Las explicaciones globales identifican las características que más influyen en el comportamiento de su modelo. Cuando se generan nuevas explicaciones globales, cada una de ellas se compara con la explicación global de referencia para calcular la estabilidad de la explicación global. La estabilidad de la explicación global utiliza la fórmula de la ganancia acumulada descontada normalizada (NDGC) para determinar la similitud entre las nuevas explicaciones globales y la explicación global de referencia.

  • Cómo funciona: Los valores más altos indican una mayor uniformidad con la explicación de referencia

    • A 0: Las explicaciones son muy diferentes.
    • A la 1: Las explicaciones son muy similares.
  • Haz cuentas:

Para calcular la estabilidad global de la explicación se utiliza la siguiente fórmula:

                  DCGₚ
nDCGₚ  =    _____________________
                  IDCGₚ

Limitaciones

  • Al configurar los ajustes para las explicaciones globales de SHAP, existen las siguientes limitaciones:
    • El tamaño de la muestra que se utiliza para configurar las explicaciones puede afectar al número de explicaciones que se generan durante determinados periodos de tiempo. Si intenta generar varias explicaciones para muestras de gran tamaño, es posible que sus transacciones no se procesen.
    • Si configura explicaciones para varias suscripciones, debe especificar los valores predeterminados para los ajustes de tamaño de la muestra y número de perturbaciones cuando su despliegue contenga 20 funciones o menos.
  • Los signos de igualdad (=) en los nombres de columna no son compatibles con sus datos. El signo igual puede provocar un error.
  • La explicabilidad no está soportada para modelos multiclase SPSS que devuelven únicamente la probabilidad de clase ganadora.

Más información

explicando las transacciones del modelo

Tema principal: Evaluación de modelos de IA

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información