Sie können die Erklärbarkeit so konfigurieren, dass Sie erkennen können, welche Merkmale zum vorhergesagten Ergebnis des Modells für eine Transaktion beitragen, und vorhersagen, welche Änderungen zu einem anderen Ergebnis führen würden.
Sie können die Erklärbarkeit konfigurieren, um die Faktoren zu analysieren, die Ihre Modellergebnisse beeinflussen. Sie können lokale Erklärungen konfigurieren, um die Auswirkungen von Faktoren für bestimmte Modelltransaktionen zu analysieren, und globale Erklärungen konfigurieren, um allgemeine Faktoren zu analysieren, die sich auf die Modellergebnisse auswirken.
Sie können die Erklärbarkeit manuell konfigurieren oder ein benutzerdefiniertes Notizbuch ausführen, um ein Erklärbarkeitsarchiv zu erstellen.
Wenn Sie das Notizbuch ausführen, können Sie das Archiv hochladen, um die Parameter für Ihre Auswertung festzulegen. Wenn Sie keine Trainingsdaten bereitstellen, müssen Sie das Archiv erstellen, um die Erklärbarkeit zu konfigurieren.
Wenn Sie die Erklärbarkeit manuell konfigurieren, müssen Sie Parameter festlegen, um die Art der Erklärungen zu bestimmen, die Sie erzeugen möchten. Sie können auch steuerbare Features angeben und die Sprachunterstützung aktivieren.
Konfigurieren von Parametern
Um Parameter zu konfigurieren, müssen Sie die Erklärungsmethoden angeben, die Sie verwenden möchten. Sie müssen wählen, ob Sie SHAP (Shapley Additive Erklärungen) oder LIME (Local Interpretable Model-Agnostic explanations) als lokale Erklärungsmethode verwenden wollen. Wenn Sie SHAP als lokale Erklärungsmethode verwenden, müssen Sie die Anzahl der Störungen angeben, die das Modell für jede lokale Erklärung erzeugt, und eine Option für die Verwendung von Hintergrunddaten auswählen. Hintergrunddaten werden verwendet, um den Einfluss von Merkmalen auf die Ergebnisse von Erklärungen zu bestimmen. Wenn Sie LIME als lokale Erklärung verwenden, müssen Sie nur die Anzahl der Störungen angeben.
Wenn Sie den Parameter Globale Erklärung aktivieren, können Sie auch wählen, ob Sie SHAP (Shapley Additive Erklärungen) oder LIME (Local Interpretable Model-Agnostic explanations) als globale Erklärungsmethode verwenden möchten. Um die globale Erklärungsmethode zu konfigurieren, müssen Sie die Stichprobengröße der Modelltransaktionen angeben, die für die Erstellung der laufenden Erklärungen verwendet wird, sowie einen Zeitplan, der bestimmt, wann die Erklärungen erstellt werden. Sie müssen auch einen Schwellenwert für die Stabilität der globalen Erklärung angeben und eine Option auswählen, die angibt, wie eine globale Basiserklärung erstellt wird. Diese Einstellungen werden zur Berechnung der globalen Erklärungsstabilitätsmetrik verwendet.
Steuerbare Merkmale
Steuerbare Features sind Features, die geändert werden können und erhebliche Auswirkungen auf Ihre Modellergebnisse haben. Sie können steuerbare Merkmale angeben, um Änderungen zu ermitteln, die zu unterschiedlichen Ergebnissen führen könnten.
Sprachunterstützung
Wenn Sie die Sprachunterstützung aktivieren, können Sie Sprachen, die nicht durch Leerzeichen getrennt sind, analysieren, um die Erklärbarkeit zu ermitteln. Sie können explainability so konfigurieren, dass die unterstützten Sprachen automatisch erkannt werden, oder Sie können manuell alle unterstützten Sprachen angeben, die Sie analysieren möchten. Sie können keine Sprachunterstützung für strukturierte Modelle und Imagemodelle konfigurieren.
Unterstützte Metriken zur Erklärbarkeit
Die folgenden Metriken zur Erklärbarkeit werden unterstützt:
Globale Erklärungsstabilität
Die Stabilität der globalen Erklärung gibt den Grad der Konsistenz der globalen Erklärung im Laufe der Zeit an
- Description:
Eine globale Erklärung wird mit den Basisdaten erstellt, die Sie bei der Konfiguration von Erklärbarkeitsauswertungen angeben. Globale Erklärungen identifizieren die Merkmale, die den größten Einfluss auf das Verhalten Ihres Modells haben. Wenn neue globale Erklärungen erstellt werden, wird jede Erklärung mit der globalen Basiserklärung verglichen, um die Stabilität der globalen Erklärung zu berechnen. Die Stabilität globaler Erklärungen verwendet die Formel für den normalisierten diskontierten kumulativen Gewinn (NDGC), um die Ähnlichkeit zwischen neuen globalen Erklärungen und der globalen Basiserklärung zu bestimmen.
Wie es funktioniert: Höhere Werte bedeuten eine höhere Übereinstimmung mit der Basislinienerklärung
- Zu 0: Die Erklärungen sind sehr unterschiedlich.
- Zu 1: Die Erklärungen sind sehr ähnlich.
Rechnen Sie nach:
Die folgende Formel wird zur Berechnung der globalen Erklärungsstabilität verwendet:
DCGₚ
nDCGₚ = _____________________
IDCGₚ
Einschränkungen
- Wenn Sie Einstellungen für globale SHAP-Erklärungen konfigurieren, gelten folgende Einschränkungen:
- Der Stichprobenumfang, den Sie für die Konfiguration von Erklärungen verwenden, kann die Anzahl der Erklärungen beeinflussen, die in bestimmten Zeiträumen erstellt werden. Wenn Sie versuchen, mehrere Erklärungen für große Stichproben zu erstellen, kann es sein, dass Ihre Transaktionen nicht verarbeitet werden können.
- Wenn Sie Erklärungen für mehrere Abonnements konfigurieren, müssen Sie die Standardwerte für die Einstellungen für die Stichprobengröße und die Anzahl der Störungen angeben, wenn Ihre Bereitstellung 20 Merkmale oder weniger enthält.
- Gleichheitszeichen (=) in Spaltennamen werden in Ihren Daten nicht unterstützt. Das Gleichheitszeichen kann einen Fehler verursachen.
- Die Erklärbarkeit wird nicht unterstützt für SPSS-Mehrfachklassenmodelle, die nur die Wahrscheinlichkeiten für die Gewinnerklasse zurückgeben.
Weitere Informationen
Übergeordnetes Thema: Bewertung von KI-Modellen