您可以配置可解释性,以揭示哪些特征有助于模型预测交易结果,并预测哪些变化会导致不同的结果。
您可以配置可解释性来分析影响模型结果的因素。 您可以选择配置局部解释以分析特定模型事务的因子影响,并配置全局解释以分析影响模型结果的一般因子。
您可以手动配置可解释性,也可以运行自定义笔记本来生成可解释性存档。
运行笔记本时,您可以上传存档以指定评估参数。 如果不提供训练数据,则必须生成存档以配置可解释性。
手动配置可解释性时,必须设置参数来确定要生成的解释类型。 您还可以选择指定可控功能部件并启用语言支持。
配置参数
要配置参数,必须指定要使用的解释方法。 您必须选择使用 SHAP(夏普利加法解释)或 LIME(本地可解释模型-诊断解释)作为本地解释方法。 如果使用 SHAP 作为局部解释方法,则必须指定模型为每个局部解释产生的扰动次数,并选择使用背景数据的选项。 背景数据用于确定特征对解释结果的影响。 如果使用 LIME 作为本地解释,则只需指定扰动次数。
启用全局解释参数后,您还可以选择使用 SHAP(夏普利相加解释)或 LIME(本地可解释模型-诊断解释)作为全局解释方法。 要配置全局解释方法,必须指定用于生成持续解释的模型事务样本大小,以及确定何时生成解释的时间表。 您还必须指定全局解释稳定性阈值,并选择指定如何生成基线全局解释的选项。 这些设置用于计算全局解释稳定性指标。
可控功能
可控特征是可以更改并对模型结果产生显着影响的特征。 您可以指定可控特征,以确定可能产生不同结果的变化。
语言支持
如果启用了语言支持,就可以分析没有空格限制的语言,以确定可解释性。 您可以将可解释性配置为自动检测支持的语言,也可以手动指定要分析的任何支持语言。 无法为结构化模型和图像模型配置语言支持。
支持可解释性指标
支持以下可解释性指标:
全局解释稳定性
全球解释的稳定性是指全球解释在一段时间内的一致性程度
- 描述:
全局解释会与您在配置可解释性评估时提供的基线数据一起生成。 全局解释可确定对模型行为影响最大的特征。 当生成新的全局解释时,每个解释都会与基线全局解释进行比较,以计算全局解释的稳定性。 全局解释稳定性使用归一化贴现累积增益(NDGC)公式来确定新的全局解释与基线全局解释之间的相似性。
工作原理数值越大,说明与基线解释的一致性越高
- 0:解释截然不同。
- 第 1 项:解释非常相似。
算一算
以下公式用于计算全球解释稳定性:
DCGₚ
nDCGₚ = _____________________
IDCGₚ
限制
- 为 SHAP 全局解释配置设置时,存在以下限制:
- 用于配置解释的样本大小会影响特定时间段内生成的解释数量。 如果您试图为大样本量生成多个解释,您的交易可能无法处理。
- 如果为多个订阅配置解释,则在部署包含 20 个或更少的功能时,必须指定样本大小和扰动次数设置的默认值。
- 您的数据不支持列名中的等号 (=)。 等号可能导致错误。
- 对于仅返回获胜类概率的 SPSS 多类模型,不支持可解释性。
了解更多信息
母主题: 评估人工智能模型