モデル取引に関する説明は、予測がどのように決定されるかを理解するのに役立ちます。
ローカルでの説明を分析して、特定のトランザクションの要因の影響を理解したり、グローバルでの説明を分析して、モデルの結果に影響を与える一般的な要因を理解したりすることができます。 構成するモデルのタイプによって、トランザクションの分析に使用できる説明のタイプが決まります。
説明は、構造化、画像、非構造化テキストモデルに対応している。 構造化モデルでは、二項分類問題、多項分類問題、または回帰分類問題を使用できます。 イメージ・モデルまたは非構造化テキスト・モデルでは、二項分類問題または多項分類問題を使用できます。
説明可能性を設定すると、トランザクションの分析にLocal Interpretable Model-Agnostic Explanations(LIME)、Contrastive Explanations(対比的説明)、またはShapley Additive Explanations(SHAP)を使用できる。
LIME は、最大 5000 個の他のクローズド・バイ・データ・ポイントを分析することにより、特定のデータ・ポイントにとって最も重要なフィーチャーを識別します。 理想的な設定では、LIME で重要な特徴量はその特定のデータ・ポイントで一番重要な特徴量ということになります。
対比的説明では、予測を変更したり同じ予測を維持したりするために変更する必要がある値の数を計算します。 最大の変化を必要とする要因の方がより重要であると考えられるため、対比的説明で最も重要な特徴量は、モデルの感度が最も低い特徴量です。 対照的な説明では、同じ結果に対する最大の変化と、変化した結果に対する最小の変化が表示される。 これらのカテゴリーは、陽性所見の値および陰性所見の値とも呼ばれます。 これらの値は、説明が生成されたデータ・ポイントの近辺でのモデルの振る舞いを説明するために役立ちます。
SHAP は、機械学習モデルの出力を説明するゲーム理論的アプローチです。 これは、Shapley の値とそれに関連する拡張機能を使用して、最適なクレジット割り当てをローカルの説明に結び付けます。 SHAP は、各モデル特徴量に特定の予測の重要度値を割り当てます。これは Shapley 値と呼ばれます。 Shapley 値は、すべての可能な特徴量グループにおける、特徴量値の平均周辺寄与率です。 入力特徴量の SHAP 値は、ベースライン出力または期待されるモデル出力と、説明されている予測の現在のモデル出力との差の合計です。 ベースライン・モデル出力は、トレーニング・データの要約、または説明を生成する必要があるデータのサブセットに基づくことができます。 トランザクションのセットの Shapley 値を組み合わせて、モデルのどの機能が最も重要であるかの概要を示すグローバル説明を得ることができます。
オンライン契約に関するグローバルな説明のみがサポートされています。 SHAP の説明では、表データのみがサポートされます。
ローカルの説明の分析
現地の説明を見るには、さまざまな方法を使うことができる。
評価結果を確認するときに、 「説明の数」 リンクを選択して、 「説明の選択」 ウィンドウを開くことができます。
「アクション」 列で 「説明」 を選択して、 「トランザクション」 詳細ページを表示します。 「 トランザクションの詳細 」には、使用する説明方法およびモデル・タイプに応じて、さまざまな説明が記載されています。
カテゴリー・モデルの場合、 「説明」 タブの 「トランザクションの詳細」 ページには、使用するローカル説明方式を使用して、トランザクションの結果に影響を与えた機能の分析が表示されます。 SHAP の場合、 「バックグラウンド・データ」 メニューで使用するバックグラウンド・データを選択して、説明を再生成できます。
Inspectタブでは、2値分類モデル用に高度な対比説明が生成され、値を変更して結果が変わるかどうかを確認することで、特徴の実験に使用することができます。
また、以下のタイプのトランザクションに関するさまざまな説明を表示することもできます。
イメージ・トランザクションの説明
イメージ・モデルの場合、イメージのどの部分が予測結果に肯定的または否定的に寄与しているかを表示できます。 以下の例では、正のパネルの画像は、予測にプラスの影響を与えた部分を示しています。 負のパネルの画像は、結果に悪影響を与えた画像の部分を示しています。
以下のノートブックを使用して、イメージ・モデルの説明を生成することもできます。
非構造化テキストのトランザクションの説明
非構造化テキスト・モデルの場合、モデル予測にプラスまたはマイナスの影響を与えたキーワードを表示できます。 非構造化テキスト・モデルは、単語またはトークンの重要性を説明します。
また、この説明は、モデルへの入力情報として提供された元のテキストの中で、識別されたキーワードの位置も示しています。 言語を変更するには、リストから別の言語を選択します。 説明は、別のトークナイザーを使用して再度実行されます。
以下のノートブックを使用して、非構造化テキスト・モデルの説明を生成することもできます。
表形式トランザクションの説明
表形式の分類モデルの場合、モデル予測にプラスの影響を与える上位 3 つの特徴量と、予測にマイナスの影響を与える上位 3 つの特徴量を表示できます。
ローカルの説明を表示するには、 「トランザクションの説明」 タブ を選択して 「最近のトランザクション」 ページを開くこともできます。 このページには、モデルによって処理されたすべてのトランザクションが表示されます。
グローバル説明の分析
説明可能性を構成する際にSHAPまたはLIMEのグローバル説明方法を有効にすると、グローバル説明の安定性メトリックの詳細を表示できます。 グローバル説明メトリックは、時間の経過に伴うグローバル説明の整合性の度合いを計算します。
グローバルな説明を分析すると、以下の詳細も見ることができる:
特徴量の影響
SHAPまたはLIMEの平均絶対値の降順で最も重要なフィーチャーを表示し、どのフィーチャーがモデル予測に最も大きな影響を与えるかを理解することができます。
特徴量分布
特徴分布図は、SHAP値やLIME値が最も重要な特徴の予測にどのような影響を与えるかを示している。 チャートを使って、特徴と予測の相関関係を理解することができます。
比較
現在のグローバルな説明とベースラインのグローバルな説明の間で、機能の影響力の変化を比較することができます
親トピック: モデル・トランザクションの検討