0 / 0
Go back to the English version of the documentation
配置可解释性
Last updated: 2024年12月05日
配置可解释性

您可以配置可解释性,以揭示哪些特征有助于模型预测交易结果,并预测哪些变化会导致不同的结果。

您可以配置可解释性来分析影响模型结果的因素。 您可以选择配置局部解释以分析特定模型事务的因子影响,并配置全局解释以分析影响模型结果的一般因子。

您可以手动配置可解释性,也可以运行自定义笔记本来生成可解释性存档。

运行笔记本时,您可以上传存档以指定评估参数。 如果不提供训练数据,则必须生成存档以配置可解释性。

手动配置可解释性时,必须设置参数来确定要生成的解释类型。 您还可以选择指定可控功能部件并启用语言支持。

配置参数

要配置参数,必须指定要使用的解释方法。 您必须选择使用 SHAP(夏普利加法解释)或 LIME(本地可解释模型-诊断解释)作为本地解释方法。 如果使用 SHAP 作为局部解释方法,则必须指定模型为每个局部解释产生的扰动次数,并选择使用背景数据的选项。 背景数据用于确定特征对解释结果的影响。 如果使用 LIME 作为本地解释,则只需指定扰动次数。

启用全局解释参数后,您还可以选择使用 SHAP(夏普利相加解释)或 LIME(本地可解释模型-诊断解释)作为全局解释方法。 要配置全局解释方法,必须指定用于生成持续解释的模型事务样本大小,以及确定何时生成解释的时间表。 您还必须指定全局解释稳定性阈值,并选择指定如何生成基线全局解释的选项。 这些设置用于计算全局解释稳定性指标。

可解释性参数在启用全局解释并选择 LIME 作为全局和局部解释方法时显示

可控功能

可控特征是可以更改并对模型结果产生显着影响的特征。 您可以指定可控特征,以确定可能产生不同结果的变化。

语言支持

如果启用了语言支持,就可以分析没有空格限制的语言,以确定可解释性。 您可以将可解释性配置为自动检测支持的语言,也可以手动指定要分析的任何支持语言。 无法为结构化模型和图像模型配置语言支持。

支持可解释性指标

支持以下可解释性指标:

全局解释稳定性

全球解释的稳定性是指全球解释在一段时间内的一致性程度

  • 描述:

全局解释会与您在配置可解释性评估时提供的基线数据一起生成。 全局解释可确定对模型行为影响最大的特征。 当生成新的全局解释时,每个解释都会与基线全局解释进行比较,以计算全局解释的稳定性。 全局解释稳定性使用归一化贴现累积增益(NDGC)公式来确定新的全局解释与基线全局解释之间的相似性。

  • 工作原理数值越大,说明与基线解释的一致性越高

    • 0:解释截然不同。
    • 第 1 项:解释非常相似。
  • 算一算

以下公式用于计算全球解释稳定性:

                  DCGₚ
nDCGₚ  =    _____________________
                  IDCGₚ

限制

  • 为 SHAP 全局解释配置设置时,存在以下限制:
    • 用于配置解释的样本大小会影响特定时间段内生成的解释数量。 如果您试图为大样本量生成多个解释,您的交易可能无法处理。
    • 如果为多个订阅配置解释,则在部署包含 20 个或更少的功能时,必须指定样本大小和扰动次数设置的默认值。
  • 您的数据不支持列名中的等号 (=)。 等号可能导致错误。
  • 对于仅返回获胜类概率的 SPSS 多类模型,不支持可解释性。

了解更多信息

解释模型事务

母主题: 评估人工智能模型

Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more