In diesem Lernprogramm erfahren Sie, wie Sie ein Modell bewerten, das vorhersagt, welche Antragsteller für Hypotheken qualifiziert sind. Sie müssen das Modell auf Qualität, Fairness und Erklärbarkeit bewerten.
- Erforderliche Services
- watsonx.ai Laufzeit
- watsonx.ai Studio
- Watson OpenScale
Ihr grundlegender Workflow umfasst die folgenden Tasks:
- Öffnen Sie ein Projekt. In Projekten können Sie mit anderen zusammenarbeiten, um mit Daten und Modellen zu arbeiten.
- Erstellen Sie ein Modell. Sie können ein Modell mit einer der folgenden Methoden erstellen:
- Erstellen Sie ein Jupyter-Notizbuch und fügen Sie Python-Code hinzu.
- Erstellen Sie ein AutoAI -Experiment.
- Implementieren Sie Ihr Modell.
- Konfigurieren Sie die Watson OpenScale -Überwachungen mit einer der folgenden Methoden:
- Erstellen Sie ein Jupyter-Notebook.
- Fügen Sie die Bereitstellung über die Benutzerschnittstelle zum Watson OpenScale -Dashboard hinzu.
Weitere Informationen zu Watson OpenScale
Watson OpenScale verfolgt und misst Ergebnisse aus Ihren KI-Modellen und stellt sicher, dass sie fair, erklärbar und konform bleiben, unabhängig davon, wo Ihre Modelle erstellt wurden oder ausgeführt werden. Außerdem erkennt und korrigiert Watson OpenScale Genauigkeitsabweichungen bei einem KI-Modell, das in der Produktionsumgebung verwendet wird.
Video zur Bewertung eines Modells für maschinelles Lernen ansehen
Sehen Sie sich dieses Video an, um eine Vorschau der Schritte in diesem Lernprogramm anzuzeigen. Möglicherweise gibt es geringfügige Unterschiede in der Benutzerschnittstelle, die im Video angezeigt wird. Das Video ist als Begleiter zum schriftlichen Lernprogramm gedacht.
Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.
Lernprogramm zur Bewertung eines Modells für maschinelles Lernen ausprobieren
In diesem Lernprogramm werden Sie die folgenden Tasks ausführen:
- Aufgabe 1: Beispielprojekt erstellen
- Task 2: Modell bereitstellen
- Task 3: Notebook ausführen, um die Überwachungen einzurichten
- Aufgabe 4: Modell auswerten
- Task 5: Qualitätsüberwachung beobachten
- Aufgabe 6: Modellüberwachungen auf Fairness überwachen
- Task 7: Modellüberwachungen auf Drift überwachen
- Task 8: Modellüberwachungen auf Erklärbarkeit überwachen
Tipps zum Durcharbeiten dieses Lernprogramms
Im Folgenden finden Sie einige Tipps für den erfolgreichen Abschluss dieses Lernprogramms.
Verwenden Sie das Videobild im Bild
Die folgende animierte Abbildung zeigt, wie die Funktionen für Videobilder und Inhaltsverzeichnisse verwendet werden:
Hilfe in der Community anfordern
Wenn Sie Hilfe zu diesem Tutorial benötigen, können Sie eine Frage stellen oder eine Antwort im Cloud Pak for Data Community Diskussionsforum finden.
Browserfenster einrichten
Damit Sie dieses Lernprogramm optimal nutzen können, öffnen Sie Cloud Pak for Data in einem Browserfenster und lassen Sie diese Lernprogrammseite in einem anderen Browserfenster geöffnet, um einfach zwischen den beiden Anwendungen zu wechseln. Es empfiehlt sich, die beiden Browserfenster nebeneinander anzuordnen, um die weitere Arbeit zu erleichtern.
Aufgabe 1: Beispielprojekt erstellen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 00:06 an.
In diesem Lernprogramm wird ein Beispielprojekt verwendet, das ein Modell für maschinelles Lernen und ein Notizbuch zum Konfigurieren der Überwachungen enthält. Führen Sie die folgenden Schritte aus, um ein Projekt auf der Basis eines Beispiels zu erstellen.
Rufen Sie das Beispielprojekt Evaluate an ML model in der Ressourcendrehscheibe auf.
Klicken Sie auf Projekt erstellen.
Wenn Sie aufgefordert werden, das Projekt einer Cloud Object Storage-Instanz zuzuordnen, wählen Sie in der Liste eine Cloud Object Storage-Instanz aus.
Klicken Sie auf Erstellen.
Warten Sie, bis der Projektimport abgeschlossen ist, und klicken Sie auf Neues Projekt anzeigen , um zu überprüfen, ob das Projekt und die Assets erfolgreich erstellt wurden.
Klicken Sie auf die Registerkarte Assets , um die Assets im Beispielprojekt anzuzeigen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das Beispielprojekt. Sie können jetzt das Lernprogramm starten.
Aufgabe 2: Modell bereitstellen
Bevor Sie das Modell bereitstellen können, müssen Sie es in einen neuen Bereitstellungsbereich hochstufen. Bereitstellungsbereiche helfen Ihnen, unterstützende Ressourcen wie Eingabedaten und Umgebungen zu organisieren, Modelle oder Funktionen bereitzustellen, um Vorhersagen oder Lösungen zu generieren, und Bereitstellungsdetails anzuzeigen oder zu bearbeiten.
Task 2a: Modell in einen Bereitstellungsbereich hochstufen
Um eine Vorschau auf diese Aufgabe zu erhalten, sehen Sie sich das Video ab 00:49 an.
Führen Sie die folgenden Schritte aus, um das Modell in einen neuen Bereitstellungsbereich hochzustufen:
Klicken Sie auf der Registerkarte Assets auf Vorhersagemodell für Hypothekengenehmigung , um das Modell anzuzeigen.
Klicken Sie auf der Modellseite auf das Symbol " " für "Promote to deployment space".
Wählen Sie für Zielbereich die Option Neuen Bereitstellungsbereich erstellen aus.
Kopieren Sie den Namen des Bereitstellungsraums und fügen Sie ihn genau so ein, wie er angezeigt wird, ohne führende oder nachfolgende Leerzeichen:
Golden Bank Preproduction Space
Wählen Sie einen Speicherservice aus der Liste aus.
Wählen Sie Ihren bereitgestellten Machine Learning-Service aus der Liste aus.
Klicken Sie auf Erstellen.
Klicken Sie auf Schließen.
Stellen Sie sicher, dass für den Zielbereich die Option Golden Bank Preproduction Space ausgewählt ist.
Aktivieren Sie die Option Nach dem Hochstufen zum Modell im Bereich wechseln.
Klicken Sie auf Hochstufen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das Modell im Bereitstellungsbereich. Sie können jetzt eine Modellbereitstellung erstellen.
Aufgabe 2b: Onlinebereitstellung für das Modell erstellen
Eine Vorschau zu dieser Task sehen Sie, wenn Sie die Wiedergabe des Videos bei 01:30 starten.
Führen Sie die folgenden Schritte aus, um eine Onlinebereitstellung für Ihr Modell zu erstellen:
Wenn der Bereitstellungsbereich geöffnet wird, klicken Sie auf Neue Bereitstellung.
Wählen Sie Online für den Bereitstellungstyp aus.
Für den Namen kopieren Sie den Namen des Einsatzes und fügen ihn genau so ein, wie er angezeigt wird, ohne führende oder nachfolgende Leerzeichen:
Mortgage Approval Model Deployment
Klicken Sie auf Erstellen.
Warten Sie, bis die Modellbereitstellung abgeschlossen ist. Wenn das Modell erfolgreich bereitgestellt wurde, zeigen Sie die Bereitstellung an, um den Scoring-Endpunkt anzuzeigen, und testen Sie optional das Modell.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Modellbereitstellung. Sie können nun das Notebook ausführen, um die Überwachungen zu konfigurieren.
Task 3: Notebook zum Einrichten der Überwachungen ausführen
Um eine Vorschau auf diese Aufgabe zu erhalten, sehen Sie sich das Video ab 01:55 an.
Führen Sie das im Beispielprojekt enthaltene Notizbuch aus, um:
- Modell und Bereitstellungen abrufen.
- Konfigurieren Sie Watson OpenScale.
- Erstellen Sie den Service-Provider und das Abonnement für Ihren Machine Learning-Service.
- Konfigurieren Sie die Qualitätsüberwachung.
- Konfigurieren Sie die Fairnessüberwachung.
- Konfigurieren Sie die Erklärbarkeit.
Führen Sie die folgenden Schritte aus, um das Notebook auszuführen, das im Beispielprojekt enthalten ist. Dieses Notebook richtet Überwachungen für Ihr Modell ein, die auch über die Benutzerschnittstelle konfiguriert werden können. Die Einrichtung mit einem Notebook ist jedoch schneller und weniger fehleranfällig. Nehmen Sie sich Zeit, die Kommentare im Notizbuch zu lesen, die den Code in jeder Zelle erklären.
Wählen Sie im Navigationsmenü " die Option Projekte > Alle Projekte anzeigen.
Öffnen Sie das Projekt Evaluate an ML model .
Klicken Sie auf die Registerkarte Assets und navigieren Sie dann zu Notebooks.
'Öffnen Sie das Notizbuch monitor-wml-model-with-watson-openscale .
Da sich das Notizbuch im schreibgeschützten Modus befindet, klicken Sie auf das Bearbeitungssymbol " , um das Notizbuch in den Bearbeitungsmodus zu versetzen.
Wenn Sie das Projekt aus dem Ressourcenhub importiert haben, enthält die erste Zelle dieses Notebooks das Projektzugriffstoken. Wenn dieses Notebook keine erste Zelle mit einem Projektzugriffstoken enthält, wählen Sie zum Generieren des Tokens im Menü Mehr Projekttoken einfügenaus. Diese Aktion fügt eine neue Zelle als erste Zelle im Notebook ein, die das Projekttoken enthält.
Im Abschnitt Provide your IBM Cloud API key müssen Sie Ihre Anmeldedaten mit einem API-Schlüssel an die watsonx.ai Runtime API übergeben. Wenn Sie noch keinen gespeicherten API-Schlüssel haben, führen Sie diese Schritte aus, um einen API-Schlüssel zu erstellen.
Rufen Sie die Seite mit den API-SchlüsselnIBM Cloud auf.
Klicken Sie auf IBM Cloud-API-Schlüssel erstellen. Wenn Sie über vorhandene API-Schlüssel verfügen, kann die Schaltfläche Erstellenlauten.
Geben Sie einen Namen und eine Beschreibung ein.
Klicken Sie auf Erstellen.
Kopieren Sie den API-Schlüssel.
Laden Sie den API-Schlüssel für die zukünftige Verwendung herunter.
Kehren Sie zum Notebook zurück und fügen Sie Ihren API-Schlüssel in das Feld ibmcloud_api_key ein.
In 3. Überprüfen Sie im Abschnitt für Modell und Bereitstellung die Werte, die den Variablen space_name, model_nameund deployment_name zugeordnet sind.
Klicken Sie auf Zelle > Alle ausführen , um alle Zellen im Notebook auszuführen. Alternativ können Sie auch auf das Ausführungssymbol " neben jeder Zelle klicken, um das Notizbuch Zelle für Zelle auszuführen und jede Zelle und ihre Ausgabe zu untersuchen.
Die Ausführung des Notebooks dauert 1 bis 3 Minuten. Sie können die Fortschrittszelle nach Zelle überwachen, indem Sie den Stern "In [
*
]" in eine Zahl ändern, z. B. "In [1
]".Wenn während der Ausführung des Notebooks Fehler auftreten, verwenden Sie die folgenden Tipps zur Fehlerbehebung:
Klicken Sie auf Kernel > Restart & Clear Output , um den Kernel erneut zu starten, und führen Sie dann das Notizbuch erneut aus.
Löschen Sie alle vorhandenen Watson OpenScale -Bereitstellungen und stellen Sie eine neue Serviceinstanz bereit.
Stellen Sie sicher, dass Sie den Bereitstellungsbereich und den Bereitstellungsnamen erstellt haben, indem Sie den angegebenen Artefaktnamen exakt ohne führende oder nachgestellte Leerzeichen kopieren und einfügen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das Notebook, wenn die Ausführung abgeschlossen ist. Das Notebook richtet Überwachungen für Ihr Modell ein, sodass Sie jetzt die Implementierung in Watson OpenScaleanzeigen können
Aufgabe 4: Modell auswerten
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 03:35 an.
Führen Sie die folgenden Schritte aus, um Holdout-Daten herunterzuladen und diese Daten zum Auswerten des Modells in Watson OpenScalezu verwenden:
Klicken Sie auf das Projekt ML-Modell auswerten im Navigationspfad.
Klicken Sie auf der Registerkarte Assets auf Daten > Datenassets.
Klicken Sie auf das Überlaufmenü " für das Daten-Asset GoldenBank_HoldoutData.csv und wählen Sie Herunterladen. Um zu überprüfen, ob das Modell ordnungsgemäß funktioniert, benötigen Sie eine Gruppe beschrifteter Daten, die aus dem Modelltraining herausgenommen wurden. Diese CSV-Datei enthält diese ausgeschlossenen Daten.
Starten Sie Watson OpenScale.
Wählen Sie im Navigationsmenü " Dienste > Dienstinstanzen.
Klicken Sie auf Ihre Watson OpenScale -Instanz, um die Seite der Serviceinstanz zu öffnen. Melden Sie sich bei entsprechender Aufforderung mit denselben Berechtigungsnachweisen an, die Sie für die Registrierung für Cloud Pak for Dataverwendet haben.
Hinweis:Ihre Instanz kann einen anderen Namen haben, z. B.watsonx.governance-xx. Klicken Sie auf der Seite Watson OpenScale auf Watson OpenScale.
Klicken Sie im Insights-Dashboard auf die Kachel Mortgage Approval Model Deployment.
Wählen Sie im Menü Aktionen die Option Jetzt auswerten aus.
Nehmen Sie in der Liste der Importoptionen Ihre Auswahl aus CSV-Datei vor.
Ziehen Sie die Datendatei Golden Bank_HoldoutData.csv, die Sie aus dem Projekt heruntergeladen haben, in die Seitenanzeige.
Klicken Sie auf Hochladen und auswerten und warten Sie, bis die Auswertung abgeschlossen ist.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das Ergebnis der Auswertung für das bereitgestellte Modell in Watson OpenScale. Nachdem Sie das Modell bewertet haben, können Sie nun die Modellqualität beobachten.
Task 5: Modellüberwachungen auf Qualität überwachen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 04:40 an.
Die Watson OpenScale -Qualitätsüberwachung generiert eine Reihe von Metriken zur Bewertung der Qualität Ihres Modells. Mithilfe dieser Qualitätsmetriken können Sie ermitteln, wie gut Ihr Modell Ergebnisse vorhersagt. Wenn die Auswertung, die die Holdout-Daten verwendet, abgeschlossen ist, führen Sie die folgenden Schritte aus, um die Modellqualität oder -genauigkeit zu beobachten:
Klicken Sie im Abschnitt " Qualität auf das Symbol " Konfigurieren Sie und dann auf " ". Hier sehen Sie, dass der Qualitätsschwellenwert, der für diesen Monitor konfiguriert ist, 70% beträgt und dass die Messung der verwendeten Qualität eine Fläche unter der ROC-Kurve ist.
Klicken Sie auf Zur Modellzusammenfassung wechseln , um zur Anzeige mit den Modelldetails zurückzukehren.
Klicken Sie im Abschnitt Qualität auf das Detailsymbol ' , um die detaillierten Ergebnisse der Modellqualität anzuzeigen. Hier sehen Sie eine Reihe von Qualitätsmetrikberechnungen und eine Wahrheitsmatrix mit korrekten Modellentscheidungen sowie falsch-positiven und falsch-negativen Ergebnissen. Der berechnete Bereich unter der ROC-Kurve ist 0.9 oder höher, was den Schwellenwert von 0.7 überschreitet, sodass das Modell seine Qualitätsanforderung erfüllt.
Klicken Sie im Navigationspfad auf Mortgage Approval Model Deployment , um zur Anzeige mit den Modelldetails zurückzukehren.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Qualitätsdetails in Watson OpenScale. Nachdem Sie nun die Modellqualität beobachtet haben, können Sie die Modellfairness beobachten.
Aufgabe 6: Modellüberwachungen auf Fairness überwachen
Um eine Vorschau auf diese Aufgabe zu erhalten, sehen Sie sich das Video ab 05:41 an.
Die Fairnessüberwachung von Watson OpenScale generiert eine Gruppe von Metriken, um die Fairness Ihres Modells zu bewerten. Mithilfe der Fairnessmetriken können Sie ermitteln, ob Ihr Modell verzerrte Ergebnisse erzeugt. Führen Sie die folgenden Schritte aus, um die Modellfairness zu beobachten:
Klicken Sie im Abschnitt " Fairness" auf das Symbol " für "Konfigurieren". Hier sehen Sie, dass das Modell überprüft wird, um sicherzustellen, dass Antragsteller unabhängig von ihrem Geschlecht fair behandelt werden. In dieser überwachten Gruppe wird der Wert der Fairness für Frauen ermittelt und der Schwellenwert für Fairness beträgt mindestens 80 %. Bei der Fairnessüberwachung wird die Methode der ungleichen Auswirkung angewendet, um die Fairness zu ermitteln. Bei ungleichen Auswirkungen wird der Prozentsatz der günstigen Ergebnisse für eine überwachte Gruppe mit dem Prozentsatz der günstiger Ergebnisse für eine Referenzgruppe verglichen.
Klicken Sie auf Zur Modellzusammenfassung wechseln , um zur Anzeige mit den Modelldetails zurückzukehren.
Klicken Sie im Abschnitt " Fairness" auf das Detailsymbol " , um die detaillierten Ergebnisse der Modellfairness anzuzeigen. Hier sehen Sie den Prozentsatz der männlichen und weiblichen Bewerber, die automatisch genehmigt werden, zusammen mit einem Fairness-Score von über 100%, sodass die Modellleistung den erforderlichen Fairnessschwellenwert von 80% bei weitem überschreitet.
Notieren Sie sich die angegebenen Dateien. Um sicherzustellen, dass die Fairnessmetriken möglichst genau sind, verwendet Watson OpenScale die Perturbation, um die Ergebnisse zu ermitteln, bei denen nur die geschützten Attribute und die zugehörigen Modelleingaben geändert werden, während andere Features unverändert bleiben. Bei der Perturbation werden die Merkmalswerte der Referenzgruppe in die Überwachungsgruppe geändert oder umgekehrt. Diese zusätzlichen Guardrails werden zur Berechnung der Fairness verwendet, wenn das "ausgeglichene" Dataset verwendet wird. Sie haben jedoch auch die Möglichkeit, die Fairnessergebnisse nur mit Nutzdaten oder Modelltrainingsdaten anzuzeigen. Da sich das Modell fair verhält, müssen Sie für diese Metrik keine zusätzlichen Details angeben.
Klicken Sie auf das Navigationspfad Mortgage Approval Model Deployment , um zur Anzeige mit den Modelldetails zurückzukehren.
Überprüfen Sie Ihren Fortschritt
In der folgenden Abbildung sind die Fairnessdetails in Watson OpenScaledargestellt. Nachdem Sie nun die Modellfairness beobachtet haben, können Sie die Modellerklärbarkeit beobachten.
Task 7: Modellüberwachungen auf Drift überwachen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 07:25 an.
Die Abweichungsüberwachung von Watson OpenScale misst Änderungen in Ihren Daten im Zeitverlauf, um konsistente Ergebnisse für Ihr Modell sicherzustellen. Mithilfe von Driftauswertungen können Sie Änderungen in der Modellausgabe, die Genauigkeit Ihrer Vorhersagen und die Verteilung Ihrer Eingabedaten ermitteln. Führen Sie die folgenden Schritte aus, um die Modelldrift zu beobachten:
Klicken Sie im Abschnitt " Drift" auf das Symbol " für "Konfigurieren". Hier sehen Sie die Driftschwellenwerte. Die Ausgabedrift misst die Änderung in der Modellkonfidenzverteilung. Die Modellqualitätsdrift misst den Rückgang der Genauigkeit, indem sie die geschätzte Laufzeitgenauigkeit mit der Trainingsgenauigkeit vergleicht. Die Merkmaldrift misst die Änderung der Wertverteilung für wichtige Merkmale. Die Konfiguration zeigt auch die Anzahl der ausgewählten Features und die wichtigsten Features.
Klicken Sie auf Zur Modellzusammenfassung wechseln , um zur Anzeige mit den Modelldetails zurückzukehren.
Klicken Sie im Abschnitt " Drift" auf das Detailsymbol " , um die detaillierten Ergebnisse der Modelldrift anzuzeigen. Mit einem Zeitreihendiagramm können Sie den Verlauf anzeigen, wie sich die einzelnen Metrikbewertungen im Zeitverlauf ändern. Niedrigere Werte sind besser, sodass in diesem Fall die Ergebnisse oberhalb der oberen Schwellenwerte liegen, die in der Konfiguration festgelegt sind. Zeigen Sie anschließend Details zur Berechnung der Scoreausgabe und der Merkmaldriften an. Sie können auch Details zu jeder Funktion anzeigen, um zu verstehen, wie sie zu den Scores beitragen, die Watson OpenScale generiert.
Klicken Sie auf das Navigationspfad Mortgage Approval Model Deployment , um zur Anzeige mit den Modelldetails zurückzukehren.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Driftdetails in Watson OpenScale. Nachdem Sie die Modelldrift beobachtet haben, können Sie die Erklärbarkeit des Modells beobachten.
Task 8: Modellüberwachungen auf Erklärbarkeit überwachen
Um eine Vorschau auf diese Aufgabe zu erhalten, sehen Sie sich das Video ab 08:46 an.
Es ist auch wichtig zu verstehen, wie das Modell zu seiner Entscheidung kam. Dieses Verständnis ist erforderlich, um Personen, die an der Kreditgenehmigung beteiligt sind, Entscheidungen zu erklären und sicherzustellen, dass die Modelleigentümer gültig sind. Um diese Entscheidungen zu verstehen, führen Sie die folgenden Schritte aus, um die Erklärbarkeit des Modells zu beobachten:
Klicken Sie im linken Navigationsbereich auf das Symbol " " für eine Transaktion erklären.
Wählen Sie Mortgage Approval Model Deployment aus, um eine Liste der Transaktionen anzuzeigen.
Klicken Sie für jede Transaktion unter der Spalte Aktionen auf Erklären. Hier wird Sie die ausführliche Erläuterung dieser Entscheidung angezeigt. Es werden die wichtigsten Eingaben für das Modell zusammen mit der Bedeutung der Eingaben für das Endergebnis angezeigt. Blaue Balken stellen Eingaben dar, die tendenziell die Entscheidung des Modells unterstützen, während rote Balken Eingaben darstellen, die möglicherweise zu einer anderen Entscheidung geführt haben. Beispielsweise könnte ein Antragsteller über genügend Einkommen verfügen, um anderweitig genehmigt zu werden, aber seine schlechte Kreditgeschichte und hohe Schulden führen zusammen dazu, dass das Modell den Antrag zurückweist. Sehen Sie sich diese Erläuterung an, um Informationen zur Grundlage für die Modellentscheidung zu erhalten.
(Optional) Wenn Sie genauer untersuchen möchten, wie das Modell seine Entscheidung getroffen hat, klicken Sie auf die Registerkarte Untersuchen . Verwenden Sie die Funktion Untersuchen , um die Entscheidung zu analysieren, um Bereiche mit Sensitivität zu finden, in denen kleine Änderungen an einigen Eingaben zu einer anderen Entscheidung führen würden, und Sie können die Sensitivität selbst testen, indem Sie einige der tatsächlichen Eingaben mit Alternativen überschreiben, um festzustellen, ob diese Auswirkungen auf das Ergebnis haben würden.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Erklärbarkeit einer Transaktion in Watson OpenScale. Sie haben festgestellt, dass das Modell korrekt ist und alle Antragsteller fair behandelt. Jetzt können Sie das Modell in die nächste Phase seines Lebenszyklus fortführen.
Nächste Schritte
Nutzen Sie diese zusätzlichen Lernprogramme, um mehr praktische Erfahrungen mit der Erstellung und Bewertung von Modellen zu sammeln:
Zusätzliche Ressourcen
- Weitere Informationen finden Sie unter Videos.
- Übersicht über Cloud Pak for Data as a Service
Übergeordnetes Thema: Lernprogramme für den Schnelleinstieg