对您的模型交易进行解释,帮助您了解预测是如何确定的。
您可以分析局部解释以了解特定事务的因素的影响,也可以分析全局解释以了解影响模型结果的一般因素。 您配置的模型类型确定可用于分析事务的说明类型。
支持对结构化、图像和非结构化文本模型进行解释。 结构化模型可以使用二元,多类或回归分类问题。 图像或非结构化文本模型可以使用二进制或多类分类问题。
配置可解释性时,可以使用本地可解释模型诊断解释 (LIME)、对比解释或夏普利加法解释 (SHAP) 来分析事务。
LIME 通过分析多达 5000 个其他近距离数据点,确定哪些特征对特定数据点最重要。 在理想的情况下,LIME 中重要性高的特征是对于该特定数据点最重要的特征。
对比解释计算需要更改多少值才能更改预测或保持相同的预测。 需要最大变化的因素被认为更重要,因此对比解释中具有最高重要性的特征是模型最不敏感的特征。 对于对比性解释,会显示相同结果的最大变化和变化结果的最小变化。 这些类别也称为相关正值和相关负值。 这些值有助于解释模型在为其生成解释的数据点附近的行为。
SHAP 是一种博弈论方法,用于解释机器学习模型的输出。 它通过使用 Shapley 值及其相关扩展将最优信用分配与本地解释连接起来。 SHAP 为每个模型特征分配一个特定预测的重要性值,称为 Shapley 值。 沙普利值是特征值在所有可能的特征组中的平均边际贡献。 输入特征的 SHAP 值是基线或预期模型输出与正在说明的预测的当前模型输出之间的差值总和。 基线模型输出可以基于训练数据的摘要或必须为其生成说明的任何数据子集。 可以组合一组事务的 Shapley 值以获取全局解释,这些解释提供了模型的哪些特征最重要的概述。
只支持在线订阅的全局解释。 SHAP 说明仅支持表格数据。
分析本地解释
您可以使用不同的方法查看本地解释。
当您 复审评估结果时,可以选择 解释数 链接以打开 " 选择解释 " 窗口。
在 操作 列中,选择 说明 以显示 " 事务 详细信息" 页面。 事务详细信息 提供不同的解释,具体取决于您使用的解释方法和模型类型。
对于分类模型,在 解释 选项卡上, " 事务详细信息 " 页面提供了对使用本地解释方法影响事务结果的功能的分析。 对于 SHAP ,您可以选择在 后台数据 菜单中使用的后台数据来重新生成说明。
在"检查"选项卡上,会为二元分类模型生成高级对比解释,您可以通过改变数值来试验特征,看看结果是否会发生变化。
您还可以查看以下类型事务的不同说明:
解释图像事务
对于图像模型,您可以查看图像的哪些部分对预测结果具有正面和负面作用。 在以下示例中,正面面板中的图像显示对预测产生正面影响的部分。 负面面板中的图像显示了对结果产生负面影响的图像部分。
您还可以使用以下 Notebook 来生成图像模型的说明:
解释非结构化文本事务
对于非结构化文本模型,您可以查看哪些关键字对模型预测具有正面或负面影响。 非结构化文本模型解释了单词或记号的重要性。
解释还显示了作为输入馈送到模型的原始文本中所识别关键字的位置。 要更改语言,请从列表中选择其他语言。 解释将使用不同的记号化器重新运行。
您还可以使用以下 Notebook 来生成非结构化文本模型的说明:
解释表格事务
对于表格分类模型,您可以查看对模型预测有正面影响的前三个特征以及对预测有负面影响的前三个特征。
要查看本地解释,您还可以选择 解释事务 选项卡 以打开 " 最近事务 " 页面。 此页面显示模型处理的所有事务。
分析全局解释
如果在配置可解释性时启用了 SHAP 或 LIME 全局解释方法,则可以查看全局解释稳定性指标的详细信息。 全局解释度量值计算全局解释随时间变化的一致性程度。
分析全局解释时,还可以查看以下详细信息:
功能部件影响
您可以按照 SHAP 或 LIME 平均绝对值的降序查看最重要的特征,以了解哪些特征对模型预测的影响最大。
特征分布
地物分布图显示了 SHAP 或 LIME 值对最重要地物预测的影响。 您可以使用图表了解特征与预测之间的相关性。
比较
您可以查看当前全局解释和基线全局解释在特征影响方面的变化对比
父主题: 查看模型事务