Verwenden Sie dieses Lernprogramm, um eine End-to-End-Pipeline zu erstellen, um kompakte, vorverarbeitete und aktuelle Daten bereitzustellen, die in einer externen Datenquelle mit dem Data Fabric-Test gespeichert sind. Ihr Ziel ist es, Orchestrierungspipelines zu verwenden, um diesen End-to-End-Workflow zu orchestrieren, um automatisierte, konsistente und reproduzierbare Ergebnisse zu generieren. Die Pipeline nutztDataStage UndAutoAI, das mehrere Aspekte eines Modellerstellungsprozesses automatisiert, wie z. B. Feature Engineering und Hyperparameteroptimierung. AutoAI ordnet Kandidatenalgorithmen an und wählt dann das beste Modell aus.
Die Geschichte des Lernprogramms ist, dass die GoldenBank ihre Geschäftstätigkeit erweitern möchte, indem sie spezielle Niedrigzinshypothekenverlängerungen für Online-Anwendungen anbietet. Online-Anwendungen erweitern die Kundenreichweite der Bank und reduzieren die Kosten der Antragsbearbeitung. Das Team wird Orchestration Pipelines verwenden, um eine Datenpipeline zu erstellen, die aktuelle Daten über alle Hypothekenbewerber liefert, die Kreditgeber für die Entscheidungsfindung verwenden können. Die Daten werden in Db2 Warehousegespeichert. Sie müssen die Daten vorbereiten, da sie möglicherweise unvollständig, veraltet und möglicherweise verschlüsselt oder aufgrund von Datenschutz-und Souveränitätsrichtlinien nicht zugänglich sind. Anschließend muss das Team ein Hypothekengenehmigungsmodell aus vertrauenswürdigen Daten erstellen und das Modell anschließend in einer Vorproduktionsumgebung bereitstellen und testen.
Das folgende animierte Bild bietet eine kurze Vorschau dessen, was Sie am Ende dieses Lernprogramms erreichen werden. Sie werden eine Pipeline bearbeiten und ausführen, um ein Modell für maschinelles Lernen zu erstellen und bereitzustellen. Klicken Sie auf das Bild, um ein größeres Bild anzuzeigen.
Vorschau des Lernprogramms anzeigen
In diesem Lernprogramm werden Sie die folgenden Tasks ausführen:
- Konfigurieren Sie die Voraussetzungen.
- Aufgabe 1: Assets im Beispielprojekt anzeigen
- Aufgabe 2: Vorhandene Pipeline untersuchen.
- Aufgabe 3: Knoten zur Pipeline hinzufügen
- Aufgabe 4: Pipeline ausführen.
- Aufgabe 5: Assets, implementiertes Modell und Onlinebereitstellung anzeigen
- Bereinigung (Optional)
Sehen Sie sich dieses Video an, um eine Vorschau der Schritte in diesem Lernprogramm anzuzeigen. Möglicherweise gibt es geringfügige Unterschiede in der Benutzerschnittstelle, die im Video angezeigt wird. Das Video ist als Begleiter zum schriftlichen Lernprogramm gedacht.
Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.
Tipps zum Durcharbeiten dieses Lernprogramms
Im Folgenden finden Sie einige Tipps für den erfolgreichen Abschluss dieses Lernprogramms.
Verwenden Sie das Videobild im Bild
Die folgende animierte Abbildung zeigt, wie die Funktionen für Videobilder und Inhaltsverzeichnisse verwendet werden:
Hilfe in der Community anfordern
Wenn Sie Hilfe zu diesem Tutorial benötigen, können Sie eine Frage stellen oder eine Antwort im Cloud Pak for Data Community Diskussionsforum finden.
Browserfenster einrichten
Damit Sie dieses Lernprogramm optimal nutzen können, öffnen Sie Cloud Pak for Data in einem Browserfenster und lassen Sie diese Lernprogrammseite in einem anderen Browserfenster geöffnet, um einfach zwischen den beiden Anwendungen zu wechseln. Es empfiehlt sich, die beiden Browserfenster nebeneinander anzuordnen, um die weitere Arbeit zu erleichtern.
Voraussetzungen einrichten
Für Cloud Pak for Data as a Service anmelden
Sie müssen sich für Cloud Pak for Data as a Service registrieren und die erforderlichen Services für den Anwendungsfall der Datenintegration bereitstellen.
- Wenn Sie über ein Cloud Pak for Data as a Service -Konto verfügen, können Sie mit diesem Lernprogramm beginnen. Wenn Sie über ein Lite-Plankonto verfügen, kann nur ein Benutzer pro Konto dieses Lernprogramm ausführen.
- Wenn Sie noch kein Konto für Cloud Pak for Data as a Service haben, melden Sie sich für einen Data-Fabric-Test an.
Sehen Sie sich das folgende Video an, um mehr über Data Fabric in Cloud Pak for Data zu erfahren.
Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.
Erforderliche bereitgestellte Services überprüfen
Um eine Vorschau auf diese Aufgabe zu erhalten, sehen Sie sich das Video ab 00:37 an.
Führen Sie die folgenden Schritte aus, um die erforderlichen Services zu überprüfen oder bereitzustellen:
Wählen Sie im Navigationsmenü " Dienste > Dienstinstanzen.
Verwenden Sie die Dropdown-Liste Produkt, um festzustellen, ob eine bestehende watsonx.ai Studio-Service-Instanz vorhanden ist.
Wenn Sie eine watsonx.ai Studio-Dienstinstanz erstellen müssen, klicken Sie auf Dienst hinzufügen.
Wählen Sie watsonx.ai Studio.
Wählen Sie den Plan Lite aus.
Klicken Sie auf Erstellen.
Warten Sie, bis der watsonx.ai Studio-Dienst eingerichtet ist, was ein paar Minuten dauern kann.
Wiederholen Sie diese Schritte, um die folgenden zusätzlichen Services zu überprüfen oder bereitzustellen:
- watsonx.ai Laufzeit
- DataStage
- Cloud Object Storage
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die bereitgestellten Serviceinstanzen:
Beispielprojekt erstellen
Eine Vorschau zu dieser Task sehen Sie, wenn Sie die Wiedergabe des Videos bei 01:14 starten.
Wenn Sie das Beispielprojekt für dieses Lernprogramm bereits haben, überspringen Sie diese Task. Andernfalls führen Sie die folgenden Schritte aus:
Rufen Sie das Beispielprojekt "Orchestrate an AI pipeline" in der Ressourcendrehscheibe auf.
Klicken Sie auf Projekt erstellen.
Wenn Sie aufgefordert werden, das Projekt einer Cloud Object Storage-Instanz zuzuordnen, wählen Sie in der Liste eine Cloud Object Storage-Instanz aus.
Klicken Sie auf Erstellen.
Warten Sie, bis der Projektimport abgeschlossen ist, und klicken Sie auf Neues Projekt anzeigen , um zu überprüfen, ob das Projekt und die Assets erfolgreich erstellt wurden.
Klicken Sie auf die Registerkarte Assets , um die Verbindung, DataStage -Abläufe und Datendefinition sowie die Pipeline anzuzeigen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Registerkarte 'Assets' im Beispielprojekt. Sie können jetzt das Lernprogramm starten.
Assoziieren Sie den watsonx.ai Runtime-Dienst mit dem Beispielprojekt
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 02:04 an.
Sie werden watsonx.ai Runtime verwenden, um das Modell zu erstellen und bereitzustellen. Folgen Sie daher diesen Schritten, um Ihre watsonx.ai Runtime Service-Instanz mit dem Beispielprojekt zu verknüpfen.
Klicken Sie im Projekt Orchestrate an AI pipeline auf die Registerkarte Verwalten.
Klicken Sie auf die Seite Services und Integrationen .
Klicken Sie auf Service zuordnen.
Markieren Sie das Kästchen neben Ihrer watsonx.ai Runtime Service-Instanz.
Klicken Sie auf Zuordnen.
Klicken Sie auf Abbrechen , um zur Seite Services und Integrationen zurückzukehren.
Überprüfen Sie Ihren Fortschritt
Das folgende Bild zeigt die Seite Services and Integrations mit dem watsonx.ai Runtime Service. Sie können das Beispielprojekt jetzt erstellen.
Aufgabe 1: Assets im Beispielprojekt anzeigen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 02:26 an.
Das Beispielprojekt enthält mehrere Assets einschließlich einer Verbindung, einer Datendefinition, zwei DataStage -Flows und einer Pipeline. Führen Sie die folgenden Schritte aus, um diese Assets anzuzeigen:
Klicken Sie auf die Registerkarte Assets im Projekt für die Orchestrierung einer KI-Pipeline und zeigen Sie dann Alle Assetsan.
Alle Datenassets, die in den DataStage -Flows und der Pipeline verwendet werden, werden in einer Data Fabric Trial- Db2 Warehouse -Verbindung im Schema AI_MORTGAGE gespeichert. Die folgende Abbildung zeigt die Assets aus dieser Verbindung:
Der DataStage -Ablauf Hypothekendaten integrieren integriert Daten zu jedem Hypothekenantragsteller, einschließlich personenbezogener Daten, mit ihren Anwendungsdetails, Scorewerten, dem Status als gewerblicher Käufer und schließlich den Preisen der ausgewählten Wohnung jedes Antragstellers und erstellt anschließend eine sequenzielle Datei mit dem Namen
Mortgage_Data.csv
in dem Projekt, das die verknüpften Daten enthält. Die folgende Abbildung zeigt den DataStage -Ablauf Hypothekendaten integrieren .Tipp: Wenn keine DataStage -Abläufe angezeigt werden, kehren Sie zurück, um Ihre Serviceinstanzen anzuzeigen und zu überprüfen, ob Ihre DataStage -Instanz erfolgreich bereitgestellt wurde. Siehe Bereitstellung der erforderlichen Services.Der DataStage -Ablauf Hypothekengenehmigungen integrieren verwendet die Ausgabe des ersten DataStage -Ablaufs (
Mortgage_Data.csv
) und reichert die Daten weiter an, indem Informationen zu jeder Hypothekenanwendungsgenehmigung integriert werden. Die Ergebnisdatei wird im Projekt mit dem NamenMortgage_Data_with_Approvals.csv
gespeichert. Die folgende Abbildung zeigt den DataStage -Ablauf Hypothekengenehmigungen integrieren :Die Datendefinition Definition_Mortgage_Data für das
Mortgage_Data_with_Approvals.csv
-Datenasset wird vom DataStage -Ablauf Hypothekengenehmigungen integrieren erstellt. Die folgende Abbildung zeigt die Datendefinition:
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt alle Assets im Beispielprojekt. Sie können nun die Pipeline im Beispielprojekt erkunden.
Aufgabe 2: Vorhandene Pipeline untersuchen
Eine Vorschau zu dieser Task sehen Sie, wenn Sie die Wiedergabe des Videos bei 04:00 starten.
Das Beispielprojekt enthält Orchestrierungs-Pipelines, die die folgenden Tasks automatisieren:
Zwei vorhandene DataStage -Jobs ausführen
Erstellen Sie ein AutoAI -Experiment.
Führen Sie das Experiment AutoAI aus und speichern Sie das Modell mit der besten Leistung, das die resultierende Ausgabedatei aus dem DataStage -Job als Trainingsdaten verwendet.
Erstellen Sie einen Bereitstellungsbereich.
Stufen Sie das gespeicherte Modell in den Bereitstellungsbereich hoch.
Führen Sie die folgenden Schritte aus, um die Pipeline zu erkunden:
Zeigen Sie auf der Registerkarte Assets im Orchestrate-AI-Pipeline-Projekt Alle Assetsan.
Klicken Sie auf Pipeline für Hypothekengenehmigung , um die Pipeline zu öffnen.
Im Anfangsabschnitt der Pipeline werden zwei DataStage -Jobs (Hypothekendaten integrieren und Hypothekengenehmigungen integrieren) nacheinander ausgeführt, um verschiedene Tabellen aus der Db2 Warehouse on Cloud -Verbindung in einem zusammenhängenden beschrifteten Dataset zu kombinieren, das als Trainingsdaten für das AutoAI -Experiment verwendet wird.
Doppelklicken Sie auf den Knoten Status prüfen , um die Bedingung anzuzeigen. Diese Bedingung ist ein Entscheidungspunkt in der Pipeline, um den Abschluss des ersten DataStage -Jobs mit dem Wert Abgeschlossen oder Mit Warnungen abgeschlossenzu bestätigen. Klicken Sie auf Abbrechen , um zur Pipeline zurückzukehren.
Doppelklicken Sie auf den Knoten AutoAI -Experiment erstellen , um die Einstellungen anzuzeigen. Dieser Knoten erstellt ein AutoAI -Experiment mit den Einstellungen.
Überprüfen Sie die Werte für die folgenden Einstellungen:
Name des AutoAI-Experiments
Bereich
Vorhersagetyp
Vorhersagespalte
Positive Klasse
Aufteilungsverhältnis der Trainingsdaten
Einzuschließende Algorithmen
Zu verwendende Algorithmen
Metrik optimieren
Klicken Sie auf Abbrechen , um die Einstellungen zu schließen.
Doppelklicken Sie auf den Knoten AutoAI -Experiment ausführen , um die Einstellungen anzuzeigen. Dieser Knoten führt das Experiment AutoAI aus, das über den Knoten Create AutoAI Experiment erstellt wird, der die Ausgabe des Jobs Integration Mortgage Approval DataStage als Trainingsdaten verwendet.
Überprüfen Sie die Werte für die folgenden Einstellungen:
AutoAI-Experiment
Trainingsdatenassets
Modellnamenspräfix
Klicken Sie auf Abbrechen , um die Einstellungen zu schließen.
Doppelklicken Sie zwischen den Knoten Experiment AutoAI ausführen und Bereitstellungsbereich erstellen auf Möchten Sie das Modell bereitstellen? um die Bedingung anzuzeigen. Der Wert True für diese Bedingung ist ein Entscheidungspunkt in der Pipeline, um mit der Erstellung des Bereitstellungsbereichs fortzufahren. Klicken Sie auf Abbrechen , um zur Pipeline zurückzukehren.
Doppelklicken Sie auf den Knoten Bereitstellungsbereich erstellen , um die Einstellungen anzuzeigen. Dieser Knoten erstellt einen neuen Deployment Space mit dem angegebenen Namen und erfordert Eingaben für Ihre Cloud Object Storage und watsonx.ai Runtime-Dienste.
Überprüfen Sie den Wert für die Einstellung Neuer Bereichsname .
Wählen Sie für das Feld CRN für neue COS-Bereichsinstanz Ihre Cloud Object Storage -Instanz aus der Liste aus.
Wählen Sie im Feld New space WML Instance CRN Ihre watsonx.ai Runtime Instanz aus der Liste aus.
Klicken Sie auf Speichern.
Doppelklicken Sie auf den Knoten Modell in Bereitstellungsbereich hochstufen , um die Einstellungen anzuzeigen. Dieser Knoten stuft das beste Modell vom Knoten AutoAI -Experiment ausführen in den Bereitstellungsbereich hoch, der vom Knoten Bereitstellungsbereich erstellen erstellt wurde.
Überprüfen Sie die Werte für die folgenden Einstellungen:
Quellenassets
Ziel
Klicken Sie auf Abbrechen , um die Einstellungen zu schließen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die ursprüngliche Pipeline. Sie können jetzt die Pipeline bearbeiten, um einen Knoten hinzuzufügen.
Aufgabe 3: Knoten zur Pipeline hinzufügen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 06:23 an.
Die Pipeline erstellt das Modell, erstellt einen Bereitstellungsbereich und stuft ihn anschließend in einen Bereitstellungsbereich hoch. Sie müssen einen Knoten hinzufügen, um eine Onlinebereitstellung zu erstellen. Führen Sie die folgenden Schritte aus, um die Pipeline zu bearbeiten, um die Erstellung einer Onlinebereitstellung zu automatisieren:
Fügen Sie den Knoten Create Online Deployment (Onlinebereitstellung erstellen) zum Erstellungsbereich hinzu:
Erweitern Sie den Abschnitt Erstellen in der Knotenpalette.
Ziehen Sie den Knoten Onlinebereitstellung erstellen in den Erstellungsbereich und legen Sie den Knoten nach dem Knoten Modell in Bereitstellungsbereich hochstufen ab.
Bewegen Sie den Mauszeiger über den Knoten Modell in Bereitstellungsbereich hochstufen , um den Pfeil anzuzeigen. Verbinden Sie den Pfeil mit dem Knoten Create online deployment .
Hinweis: Die Knotennamen in Ihrer Pipeline können sich von dem folgenden animierten Bild unterscheiden.Verbinden Sie den Kommentar Create online deployment for promoted model mit dem Knoten Create online deployment , indem Sie den Kreis im Kommentarfeld mit dem Knoten verbinden.
Hinweis: Die Knotennamen in Ihrer Pipeline können sich von dem folgenden animierten Bild unterscheiden.Doppelklicken Sie auf den Knoten Create online deployment , um die Einstellungen anzuzeigen.
Ändern Sie den Knotennamen in
Create Online Deployment
.Klicken Sie neben ML-Assetim Menü auf Aus einem anderen Knoten auswählen .
Wählen Sie in der Liste den Knoten Modell in Bereitstellungsbereich hochstufen aus. Die Knoten-ID winning_model ist ausgewählt.
Geben Sie für Neuer Implementierungsname
mortgage approval model deployment
ein.Wählen Sie für Erstellungsmodusdie Option Überschreibenaus.
Klicken Sie auf Speichern , um die Einstellungen des Knotens Onlinebereitstellung erstellen zu speichern.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die abgeschlossene Pipeline. Sie können die Pipeline jetzt ausführen.
Aufgabe 4: Pipeline ausführen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 07:38 an.
Führen Sie nach Abschluss der Pipeline die folgenden Schritte aus, um die Pipeline auszuführen:
Klicken Sie in der Symbolleiste auf Pipeline ausführen > Testlauf.
Wählen Sie auf der Seite Pipelineparameter definieren True für die Bereitstellung aus.
Wenn Truefestgelegt ist, überprüft die Pipeline das bereitgestellte Modell und bewertet das Modell.
Wenn der Wert auf Falsegesetzt ist, überprüft die Pipeline, ob das Modell im Projekt vom Experiment AutoAI erstellt wurde, und überprüft die Modellinformationen und Trainingsmetriken.
Wenn Sie zum ersten Mal eine Pipeline ausführen, werden Sie aufgefordert, einen API-Schlüssel anzugeben. Pipeline-Assets verwenden Ihren persönlichen IBM Cloud -API-Schlüssel, um Operationen ohne Unterbrechung sicher auszuführen.
Wenn Sie einen vorhandenen API-Schlüssel haben, klicken Sie auf Vorhandenen API-Schlüssel verwenden, fügen Sie den API-Schlüssel ein und klicken Sie auf Speichern.
Wenn kein API-Schlüssel vorhanden ist, klicken Sie auf Neuen API-Schlüssel generieren, geben Sie einen Namen an und klicken Sie auf Speichern. Kopieren Sie den API-Schlüssel und speichern Sie den API-Schlüssel zur späteren Verwendung. Klicken Sie anschließend auf Schließen.
Klicken Sie auf Ausführen , um die Ausführung der Pipeline zu starten.
Blättern Sie durch konsolidierte Protokolle, während die Pipeline ausgeführt wird. Die Testausführung kann bis zu 10 Minuten dauern.
Wählen Sie nach Abschluss jeder Operation den Knoten für diese Operation im Erstellungsbereich aus.
Zeigen Sie auf der Registerkarte Node Inspector die Details der Operation an.
Klicken Sie auf die Registerkarte Knotenausgabe , um eine Zusammenfassung der Ausgabe für jede Knotenoperation anzuzeigen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Pipeline nach Abschluss der Testausführung. Sie können nun die von der Pipeline erstellten Assets überprüfen.
Aufgabe 5. Assets, implementiertes Modell und Onlinebereitstellung anzeigen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 09:48 an.
Die Pipeline hat verschiedene Assets erstellt. Führen Sie die folgenden Schritte aus, um die Assets anzuzeigen:
Klicken Sie auf den Projektnamen Orchestrate an AI pipeline im Navigationspfad, um zum Projekt zurückzukehren.
Zeigen Sie auf der Registerkarte Assets Alle Assetsan.
Datenassets anzeigen.
Klicken Sie auf das Datenasset Mortgage_Data.csv . Der DataStage -Job hat dieses Asset erstellt.
Klicken Sie auf den Projektnamen im Navigationspfad, um zur Registerkarte Assets zurückzukehren.
Klicken Sie auf das Datenasset Mortgage_Data_with_Approvals.csv . Der DataStage -Job hat dieses Asset erstellt.
Klicken Sie auf den Projektnamen im Navigationspfad, um zur Registerkarte Assets zurückzukehren.
Zeigen Sie das Modell an.
Klicken Sie auf das Asset des Modells für maschinelles Lernen, das mit mortgage_approval_best_modelbeginnt. Das Experiment AutoAI hat mehrere Modellkandidaten generiert und dieses als das beste Modell ausgewählt.
Blättern Sie durch die Modellinformationen.
Klicken Sie auf den Projektnamen im Navigationspfad, um zur Registerkarte Assets zurückzukehren.
Klicken Sie auf die Registerkarte Jobs im Projekt, um Informationen zu den beiden DataStage -Jobs und einer Pipeline-Jobausführung anzuzeigen.
Wählen Sie im Navigationsmenü " die Option Einsätze.
Klicken Sie auf die Registerkarte Bereiche .
Klicken Sie auf den Bereitstellungsbereich Hypothekengenehmigung .
Klicken Sie auf die Registerkarte Assets und sehen Sie das bereitgestellte Modell beginnend mit mortgage_approval_best_model.
Klicken Sie auf die Registerkarte Bereitstellungen.
Klicken Sie auf Bereitstellung des Hypothekengenehmigungsmodells , um die Bereitstellung anzuzeigen.
Zeigen Sie die Informationen auf der Registerkarte API-Referenz an.
Klicken Sie auf die Registerkarte Test.
Klicken Sie die Registerkarte JSON-Eingabe an und ersetzen Sie den Beispieltext durch den folgenden JSON-Text.
{ "input_data": [ { "fields": [ "ID", "NAME", "STREET_ADDRESS", "CITY", "STATE", "STATE_CODE", "ZIP_CODE", "EMAIL_ADDRESS", "PHONE_NUMBER", "GENDER", "SOCIAL_SECURITY_NUMBER", "EDUCATION", "EMPLOYMENT_STATUS", "MARITAL_STATUS", "INCOME", "APPLIEDONLINE", "RESIDENCE", "YRS_AT_CURRENT_ADDRESS", "YRS_WITH_CURRENT_EMPLOYER", "NUMBER_OF_CARDS", "CREDITCARD_DEBT", "LOANS", "LOAN_AMOUNT", "CREDIT_SCORE", "CRM_ID", "COMMERCIAL_CLIENT", "COMM_FRAUD_INV", "FORM_ID", "PROPERTY_CITY", "PROPERTY_STATE", "PROPERTY_VALUE", "AVG_PRICE" ], "values": [ [ null, null, null, null, null, null, null, null, null, null, null, "Bachelor", "Employed", null, 144306, null, "Owner Occupier", 15, 19, 2, 7995, 1, 1483220, 437, null, false, false, null, null, null, 111563 ], [ null, null, null, null, null, null, null, null, null, null, null, "High School", "Employed", null, 45283, null, "Private Renting", 11, 13, 1, 1232, 1, 7638, 706, null, false, false, null, null, null, 547262 ] ] } ] }
Klicken Sie auf Vorhersage. Die Ergebnisse zeigen, dass der erste Antragsteller nicht zugelassen wird und der zweite Antragsteller genehmigt wird.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Ergebnisse des Tests.
Das Team der Golden Bank verwendete Orchestration Pipelines, um eine Datenpipeline zu erstellen, die aktuelle Daten zu allen Hypothekenantragstellern und ein Modell für maschinelles Lernen liefert, das Kreditgeber für die Entscheidungsfindung verwenden können.
Bereinigung (optional)
Wenn Sie dieses Lernprogramm wiederholen möchten, löschen Sie die folgenden Artefakte.
Artefakt | Vorgehensweise zum Löschen |
---|---|
Bereitstellung des Hypothekengenehmigungsmodells im Bereitstellungsbereich für Hypothekengenehmigungen | Bereitstellung löschen |
Bereitstellungsbereich für Hypothekengenehmigung | Bereitstellungsbereich löschen |
Beispielprojekt für eine KI-Pipeline koordinieren | Projekt löschen |
Nächste Schritte
Testen Sie diese Lernprogramme:
Melden Sie sich für einen weiteren Data Fabric-Anwendungsfallan.
Weitere Informationen
Übergeordnetes Thema: Lernprogramme für Anwendungsfälle