Verwenden Sie dieses Lernprogramm, um die Datenreplikation zwischen einem Quellen-und Zieldatenspeicher mit dem Anwendungsfall für die Datenintegration des Data-Fabric-Tests einzurichten. Ihr Ziel ist es, Data Replication zu verwenden, um die Scoredaten aus der Db2 on Cloud -Datenquelle des Anbieters zu integrieren, indem ein echtzeitnaher und kontinuierlicher Replikationsfeed mit effizienter Datenerfassung aus der Quellendatenbank in die Event Streams -Instanz Ihrer Golden Bank eingerichtet wird. Event Streams ist ein mit Apache Kafkaerstellter Nachrichtenbus mit hohem Durchsatz. Er ist für die Ereignisaufnahme in IBM Cloud und die Ereignisstromverteilung zwischen Ihren Services und Anwendungen optimiert. Weitere Informationen zu Event Streamsfinden Sie im Abschnitt Weitere Informationen .
In diesem Lernprogramm muss die Golden Bank eine neue Verordnung einhalten, in der sie keine Kredite an unterqualifizierte Darlehensantragsteller vergeben kann. Als Dateningenieur der Golden Bank müssen Sie Zugang zu den aktuellsten Scorewerten von Kreditantragstellern bieten. Diese Scorewerte stammen aus einer Db2 on Cloud -Datenbank, deren Eigner ein externer Provider ist, und werden kontinuierlich in den Event Streams -Hub der Golden Bank bereitgestellt. Die Daten im Event Streams -Hub werden von der Anwendung verwendet, um Scorewerte für Hypothekenantragsteller zu suchen, um die Kreditgenehmigung für qualifizierte Antragsteller festzulegen.
Das folgende animierte Bild bietet eine kurze Vorschau dessen, was Sie am Ende des Lernprogramms erreichen werden. Klicken Sie auf das Bild, um ein größeres Bild anzuzeigen.
Vorschau des Lernprogramms anzeigen
In diesem Lernprogramm werden Sie die folgenden Tasks ausführen:
- Konfigurieren Sie die Voraussetzungen.
- Task 1: Event Streamseinrichten
- Aufgabe 2: Scoredaten anzeigen
- Task 3: Verbindung zu Ihrer Event Streams -Instanz erstellen
- Aufgabe 4: Data Replication Ihrem Projekt zuordnen.
- Task 5: Datenreplikation konfigurieren
- Task 6: Datenreplikation ausführen
- Task 7: Datenreplikation überprüfen
- Bereinigung
Sehen Sie sich dieses Video an, um eine Vorschau der Schritte in diesem Lernprogramm anzuzeigen. Möglicherweise gibt es geringfügige Unterschiede in der Benutzerschnittstelle, die im Video angezeigt wird. Das Video ist als Begleiter zum schriftlichen Lernprogramm gedacht.
Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.
Tipps zum Durcharbeiten dieses Lernprogramms
Im Folgenden finden Sie einige Tipps für den erfolgreichen Abschluss dieses Lernprogramms.
Verwenden Sie das Videobild im Bild
Die folgende animierte Abbildung zeigt, wie die Funktionen für Videobilder und Inhaltsverzeichnisse verwendet werden:
Hilfe in der Community anfordern
Wenn Sie Hilfe zu diesem Tutorial benötigen, können Sie eine Frage stellen oder eine Antwort im Cloud Pak for Data Community Diskussionsforum finden.
Browserfenster einrichten
Damit Sie dieses Lernprogramm optimal nutzen können, öffnen Sie Cloud Pak for Data in einem Browserfenster und lassen Sie diese Lernprogrammseite in einem anderen Browserfenster geöffnet, um einfach zwischen den beiden Anwendungen zu wechseln. Es empfiehlt sich, die beiden Browserfenster nebeneinander anzuordnen, um die weitere Arbeit zu erleichtern.
Voraussetzungen einrichten
Für Cloud Pak for Data as a Service anmelden
Sie müssen sich für Cloud Pak for Data as a Service registrieren und die erforderlichen Services für den Anwendungsfall der Datenintegration bereitstellen.
- Wenn Sie über ein Cloud Pak for Data as a Service -Konto verfügen, können Sie mit diesem Lernprogramm beginnen. Wenn Sie über ein Lite-Plankonto verfügen, kann nur ein Benutzer pro Konto dieses Lernprogramm ausführen.
- Wenn Sie noch kein Konto für Cloud Pak for Data as a Service haben, melden Sie sich für einen Data-Fabric-Test an.
Sehen Sie sich das folgende Video an, um mehr über Data Fabric in Cloud Pak for Data zu erfahren.
Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.
Erforderliche bereitgestellte Services überprüfen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 01:29 an.
Führen Sie die folgenden Schritte aus, um die erforderlichen Services zu überprüfen oder bereitzustellen:
Überprüfen Sie in Cloud Pak for Data, ob Sie sich in der Region Dallas befinden. Wenn nicht, klicken Sie auf die Dropdown-Liste der Region und wählen Sie Dallas.
'Wählen Sie im Navigationsmenü " Dienste > Dienstinstanzen.
Verwenden Sie die Dropdown-Liste Produkt , um zu ermitteln, ob eine vorhandene Data Replication -Serviceinstanz vorhanden ist.
Wenn Sie eine Data Replication -Serviceinstanz erstellen müssen, klicken Sie Service hinzufügenan.
Wählen Sie Data Replication aus.
Wählen Sie den Plan Lite aus.
Klicken Sie auf Erstellen.
Warten Sie, bis der Data Replication bereitgestellt ist. Dies kann einige Minuten dauern.
Wiederholen Sie diese Schritte, um die folgenden zusätzlichen Services zu überprüfen oder bereitzustellen:
- watsonx.ai Studio
- Cloud Object Storage
- Event Streams -Sie werden möglicherweise aufgefordert, sich bei Ihrem IBM Cloud -Konto anzumelden.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die bereitgestellten Serviceinstanzen. Sie können das Beispielprojekt jetzt erstellen.
Beispielprojekt erstellen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 02:19 an.
Wenn Sie bereits über das Beispielprojekt für dieses Lernprogramm verfügen, fahren Sie mit Aufgabe 1fort. Andernfalls führen Sie die folgenden Schritte aus:
Rufen Sie das Beispielprojekt des Datenintegrationstutorials in der Ressourcendrehscheibe auf.
Klicken Sie auf Projekt erstellen.
Wenn Sie aufgefordert werden, das Projekt einer Cloud Object Storage-Instanz zuzuordnen, wählen Sie in der Liste eine Cloud Object Storage-Instanz aus.
Klicken Sie auf Erstellen.
Warten Sie, bis der Projektimport abgeschlossen ist, und klicken Sie auf Neues Projekt anzeigen , um zu überprüfen, ob das Projekt und die Assets erfolgreich erstellt wurden.
Klicken Sie auf die Registerkarte Assets , um die Verbindungen, das verbundene Datenasset und das Notebook anzuzeigen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Registerkarte 'Assets' im Beispielprojekt. Sie können jetzt das Lernprogramm starten.
Aufgabe 1: Event Streams einrichten
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 03:05 an.
Als Teil der Voraussetzungenhaben Sie die neue Event Streams -Instanz bereitgestellt. Jetzt müssen Sie diese Serviceinstanz einrichten. Führen Sie die folgenden Schritte aus:
Erstellen Sie ein Thema, um die aus den Quellendaten replizierten Daten in Db2 on Cloudzu speichern. Das Thema ist der Kern von Event Streams -Datenflüssen. Daten werden über ein Topic von sendenden Anwendungen an verarbeitende Anwendungen übergeben.
Kopieren Sie Beispielcode, der die Bootstrap-Serverinformationen enthält, die zum Konfigurieren der Datenreplikation erforderlich sind.
Erstellen Sie Berechtigungsnachweise, die Sie zum Erstellen einer Verbindung zum Service im Projekt verwenden.
Kehren Sie zur Ressourcenliste IBM Cloud zurück.
Erweitern Sie den Abschnitt Integration .
Klicken Sie auf den Namen der Serviceinstanz für Ihre Event Streams -Instanz, um die Instanzdetails anzuzeigen.
Klicken Sie zum Erstellen des Themas zunächst auf die Seite Themen .
Klicken Sie auf Thema erstellen.
Geben Sie als Themenname
golden-bank-mortgage
ein.Klicken Sie auf Weiter.
Übernehmen Sie im Abschnitt Partitionen den Standardwert und klicken Sie auf Weiter.
Akzeptieren Sie im Abschnitt Nachrichtenaufbewahrung den Standardwert und klicken Sie auf Thema erstellen.
Öffnen Sie einen Texteditor und fügen Sie den Themennamen
golden-bank-mortgage
zur späteren Verwendung in die Textdatei ein.
Klicken Sie anschließend auf der Seite Topics auf Connect to this service , um die Verbindungsinformationen abzurufen.
Kopieren Sie den Wert im Feld Bootstrap-Server . Der Bootstrap-Server ist erforderlich, um eine Verbindung zur Event Streams -Instanz in Ihrem Projekt herzustellen.
Fügen Sie den Wert für den Bootstrap-Server zur späteren Verwendung in dieselbe Textdatei ein.
Klicken Sie auf die Registerkarte Mustercode .
Kopieren Sie den Wert im Feld Beispielkonfigurationseigenschaften . Sie verwenden einige Eigenschaften aus diesem Snippet, um eine sichere Verbindung zum Service herzustellen.
Fügen Sie den Beispielcode zur späteren Verwendung in dieselbe Textdatei ein.
Klicken Sie auf das X , um die Anzeige Verbindung zu diesem Service herstellen zu schließen.
Klicken Sie zum Erstellen der Berechtigungsnachweise auf die Seite Serviceberechtigungsnachweise .
Klicken Sie auf Neuer Berechtigungsnachweis.
Akzeptieren Sie den Standardnamen oder ändern Sie ihn bei Bedarf.
Übernehmen Sie für Rolleden Standardwert Manager.
Erweitern Sie den Abschnitt Erweiterte Optionen .
Wählen Sie im Feld Service-ID auswählen die Option Automatisch generieren.
Klicken Sie auf Hinzufügen.
Klicken Sie neben den neuen Berechtigungsnachweisen auf das Symbol In Zwischenablage kopieren .
Fügen Sie die Berechtigungsnachweise zur späteren Verwendung in dieselbe Textdatei ein.
Ihre Textdatei sollte alle folgenden Informationen enthalten:
TOPIC NAME: golden-bank-mortgage
BOOTSTRAP SERVER FIELD
broker-5-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-1-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-2-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-0-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-3-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-4-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093
SAMPLE CODE
bootstrap.servers=broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="token" password="<APIKEY>";
security.protocol=SASL_SSL
sasl.mechanism=PLAIN
ssl.protocol=TLSv1.2
ssl.enabled.protocols=TLSv1.2
ssl.endpoint.identification.algorithm=HTTPS
CREDENTIALS
{
"api_key": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"apikey": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"bootstrap_endpoints": "broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"iam_apikey_description": "Auto-generated for key crn:v1:bluemix:public:messagehub:us-south:a/a53b11fc95fcca4d96484d0de5f3bc3c:6b5a2cb2-74ef-432d-817f-f053873e7ed2:resource-key:96372942-5d26-4c59-8ca4-41ab6766ba91",
"iam_apikey_name": "Service credentials-1",
"iam_role_crn": "crn:v1:bluemix:public:iam::::serviceRole:Manager",
"iam_serviceid_crn": "crn:v1:bluemix:public:iam-identity::a/a53b11fc95fcca4d96484d0de5f3bc3c::serviceid:ServiceId-4773bed1-f423-43ea-adff-469389dca54c",
"instance_id": "6b5a2cb2-74ef-432d-817f-f053873e7ed2",
"kafka_admin_url": "https://pqny71x0b9vh7nwh.svc11.us-south.eventstreams.cloud.ibm.com",
"kafka_brokers_sasl": [
"broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093"
],
"kafka_http_url": "https://pqny71x0b9vh7nwh.svc11.us-south.eventstreams.cloud.ibm.com",
"password": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"user": "token"
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Seite 'Topics' für Ihre Event Streams -Instanz in IBM Cloud. Sie können jetzt eine Verbindung zur Event Streams -Instanz in Ihrem Projekt herstellen.
Aufgabe 2: Scoredaten anzeigen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 05:06 an.
Das Beispielprojekt enthält eine Verbindung zur Db2 on Cloud -Instanz, in der die Quellendaten gespeichert werden. Führen Sie die folgenden Schritte aus, um das Verbindungsasset und die Scoredaten anzuzeigen:
Kehren Sie zur Browserregisterkarte Cloud Pak for Data as a Service zurück. Das Datenintegrationsprojekt wird angezeigt. Wenn Sie das Projekt nicht sehen, gehen Sie wie folgt vor:
Wählen Sie im Navigationsmenü " die Option Projekte > Alle Projekte anzeigen.
Klicken Sie auf das Projekt Datenintegration , um es zu öffnen.
Klicken Sie auf der Registerkarte Assets auf Alle Assets.
Suchen Sie das Verbindungsasset Data Fabric Trial- Db2 on Cloud -Source .
Suchen Sie das verbundene Datenasset CREDIT_SCORE .
Klicken Sie auf das Asset CREDIT_SCORE , um eine Vorschau anzuzeigen. Dieses Datenasset wird der Tabelle CREDIT_SCORE im Schema BANKING in der Db2 on Cloud -Instanz des Providers zugeordnet. Es enthält Informationen zu den Hypothekenantragstellern wie ID, Name, Adresse und Scorewert. Sie möchten die Datenreplikation für dieses Datenasset konfigurieren.
Klicken Sie in der Navigationsleiste auf den Namen des Datenintegrationsprojekts, um zu dem Projekt zurückzukehren.
'
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das Datenasset für die Scorebewertung im Beispielprojekt. Sie können jetzt eine Verbindung zum Service Event Streams in diesem Projekt herstellen.
Task 3: Verbindung zu Ihrer Event Streams -Instanz erstellen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 05:34 an.
Um die Replikation einzurichten, benötigen Sie außerdem eine Verbindung zu der neuen Event Streams -Instanz, die Sie als Teil der Voraussetzungen mithilfe der Informationen bereitgestellt haben, die Sie in Task 1zusammengestellt haben. Führen Sie die folgenden Schritte aus, um das Verbindungsasset zu erstellen:
Klicken Sie auf der Registerkarte Assets auf Neues Asset > Verbindung zu einer Datenquelle herstellen.
Wähle ausApache Kafka Connector, und klicken Sie dann auf Nächste .
Geben Sie
Event Streams
als Namen ein.Füllen Sie im Abschnitt Verbindungsdetailsdie folgenden Felder aus:
- Hostname des Kafka -Servers: Fügen Sie den Bootstrap-Serverwert aus der Textdatei ein, die Sie in Task 1erstellt haben.
- Sichere Verbindung: Wählen Sie SASL_SSLaus.
- Benutzerprinzipalname: Fügen Sie den Wert user aus den Serviceberechtigungsnachweisen in Ihre Textdatei ein. Dieser Wert ist normalerweise
token
. - Kennwort: Fügen Sie den Wert password aus den Serviceberechtigungsnachweisen in Ihre Textdatei ein.
Klicken Sie auf Verbindung testen.
Wenn der Test erfolgreich ist, klicken Sie auf Create. Wenn der Test nicht erfolgreich ist, überprüfen Sie die Informationen, die Sie kopiert und aus Ihrer Textdatei eingefügt haben, und versuchen Sie es erneut. Wenn Sie aufgefordert werden, die Erstellung der Verbindung zu bestätigen, ohne Position und Souveränität festzulegen, klicken Sie erneut auf Erstellen .
Klicken Sie auf Alle Assets , um die neue Verbindung anzuzeigen.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Registerkarte 'Assets' im Beispielprojekt mit dem neuen Verbindungsasset Event Streams . Sie können jetzt den Service Data Replication diesem Projekt zuordnen.
Aufgabe 4: Service Data Replication Ihrem Projekt zuordnen
Um eine Vorschau auf diese Aufgabe zu erhalten, sehen Sie sich das Video ab 06:32 an.
Wenn Sie den Service Data Replication in Ihrem Projekt verwenden möchten, müssen Sie Ihre Serviceinstanz dem Projekt zuordnen. Führen Sie die folgenden Schritte aus, um den Service Event Streams dem Datenintegrationsprojekt zuzuordnen:
Klicken Sie im Projekt Datenintegration auf die Registerkarte Verwalten .
Klicken Sie auf die Seite Services und Integrationen .
Klicken Sie auf Service zuordnen.
Aktivieren Sie das Kontrollkästchen neben Ihrer Data Replication -Serviceinstanz.
Klicken Sie auf Zuordnen.
Klicken Sie auf Abbrechen , um zur Seite Services und Integrationen zurückzukehren.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt die Seite Services und Integrationen mit dem aufgelisteten Data Replication . Sie können jetzt die Datenreplikation einrichten.
Task 5: Datenreplikation konfigurieren
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 06:53 an.
Jetzt können Sie ein Asset Data Replication erstellen, um die fortlaufende Datenreplikation zwischen der Db2 on Cloud -Quelle und dem Ziel Event Streams zu starten. Führen Sie die folgenden Schritte aus, um die Datenreplikation einzurichten:
Klicken Sie im Projekt auf die Registerkarte Assets .
Klicken Sie auf Neues Asset > Daten replizieren.
Geben Sie
CreditScoreReplication
als Namen ein.Klicken Sie auf Quellenoptionen.
Wählen Sie auf der Seite Quellenoptionen in der Liste der Verbindungen Data Fabric Trial- Db2 on Cloud -Quelle aus.
Klicken Sie auf Daten auswählen.
Wählen Sie auf der Seite Daten auswählen das Schema BANKING > CREDIT_SCORE aus.
Klicken Sie auf Zieloptionen.
Wählen Sie auf der Seite Zieloptionen in der Liste der Verbindungen Ereignisströme aus.
Fügen Sie im Feld Standardthema den in Aufgabe 1erstellten Themennamen
golden-bank-mortgage
ein.Akzeptieren Sie den Standardwert für die restlichen Felder und klicken Sie auf Überprüfen.
Überprüfen Sie die Zusammenfassung und klicken Sie auf Create.
Überprüfen Sie Ihren Fortschritt
Das folgende Bild zeigt dieReplicateCreditScoreData Bildschirm mit gestoppter Replikation. Sie können jetzt die Datenreplikation ausführen.
Task 6: Datenreplikation ausführen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 07:54 an.
Nach der Erstellung des Assets Data Replication können Sie die Datenreplikation ausführen und Informationen zum Replikationsstatus anzeigen. Führen Sie die folgenden Schritte aus, um die Datenreplikation auszuführen:
Klicken Sie auf dem Bildschirm CreditScoreReplication auf das Symbol Ausführen ' , um den Replikationsprozess zu starten.
Wenn Sie zum ersten Mal ein Data Replication -Asset ausführen, werden Sie möglicherweise aufgefordert, einen API-Schlüssel anzugeben. Datenreplikationsassets verwenden Ihren persönlichen IBM Cloud -API-Schlüssel, um Replikationsoperationen sicher und ohne Unterbrechung auszuführen. Wenn Sie einen bestimmten API-Schlüssel verwenden möchten, klicken Sie auf das Einstellungssymbol " .
- Wenn Sie einen vorhandenen API-Schlüssel haben, klicken Sie auf Vorhandenen API-Schlüssel verwenden, fügen Sie den API-Schlüssel ein und klicken Sie auf Speichern.
- Wenn kein API-Schlüssel vorhanden ist, klicken Sie auf Neuen API-Schlüssel generierenund anschließend auf Generieren. Speichern Sie den API-Schlüssel zur späteren Verwendung und klicken Sie anschließend auf Schließen.
Klicken Sie im Abschnitt " Ereignisprotokolle" auf das Aktualisierungssymbol " , um neue Meldungen zu sehen.
Nach einigen Minuten wird die Nachricht
Completed initial synchronization for table "BANKING"."CREDIT_SCORE"
im Abschnitt Ereignisprotokolle angezeigt.
Ab diesem Punkt werden alle Änderungen am BANKING.CREDIT_SCORE in der Db2 on Cloud -Instanz wird automatisch erkannt und auf das Ziel repliziert.
Überprüfen Sie Ihren Fortschritt
Das folgende Bild zeigt dieCreditScoreReplication Bildschirm mit laufender Replikation und Meldungen im Ereignisprotokoll. Sie können nun die Replikation überwachen, indem Sie den Status des Replikationsassets sowie die Ereignisse und Metriken überwachen und überprüfen, ob die Daten repliziert werden.
Task 7: Datenreplikation überprüfen
Um eine Vorschau dieser Aufgabe zu sehen, schauen Sie sich das Video ab 09:03 an.
Sie können Python -Code verwenden, um zu überprüfen, ob die Scoredaten in den Event Streams -Hub der Golden Bank repliziert wurden. Das Beispielprojekt enthält ein Jupyter, das den Python enthält. Gehen Sie wie folgt vor, um den Code im Notebook zu bearbeiten und auszuführen:
Klicken Sie auf den Namen des Datenintegrationsprojekts in der Navigationsleiste, um zum Projekt zurückzukehren.
'Klicken Sie auf die Registerkarte Assets.
Klicken Sie auf Alle Assets.
Klicken Sie auf das Overflow-Menü ' am Ende der Zeile für das Notizbuch Monitor Datenreplikation und wählen Sie Bearbeiten.
Führen Sie die erste Codezelle aus, um die Python-Bibliothek Kafkazu installieren.
Bearbeiten Sie die zweite Zelle unter Verwendung der Informationen, die Sie in einer Textdatei aus Aufgabe 1gespeichert haben.
topic: Fügen Sie den Themennamen ein. Dieser Wert ist
golden-bank-mortgage
.bootstrap_servers: Fügen Sie den Wert für den Bootstrap-Server aus Ihrer Textdatei ein, der dem folgenden Wert ähnelt:
broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093
sasl_plain_username: Fügen Sie den Wert user aus den Serviceberechtigungsnachweisen in die Textdatei ein. Dieser Wert ist normalerweise
token
.security_protocol: Fügen Sie den Wert security.protocol aus der Textdatei ein. Dieser Wert ist normalerweise
SASL_SSL
.sasl_mechanism: Fügen Sie den Wert sasl.mechanism aus der Textdatei ein. Dieser Wert ist normalerweise
PLAIN
.sasl_plain_password: Fügen Sie den Wert password aus den Serviceberechtigungsnachweisen in die Textdatei ein.
Nachdem Sie alle Werte eingegeben haben, führen Sie den Code in der zweiten Zelle aus, um die Verbindungsinformationen für Ihre Event Streams -Instanz bereitzustellen.
Führen Sie den Code in der dritten Zelle aus, um Datensätze aus Ihrem Event Streams -Thema zu verarbeiten.
Führen Sie den Code in der vierten Zelle aus, um die in Ihrem Konsumentenobjekt erfassten Nachrichten auszugeben.
Überprüfen Sie die Ausgabe mit dem Inhalt der Nachrichten, die von der Replikation in Ihrem Event Streams -Abschnitt zugestellt wurden. Vergleichen Sie dies mit dem Datenasset CREDIT_SCORE, das Sie in Aufgabe 2angezeigt haben.
Klicken Sie auf Datei > Speichern, um das Jupyter mit Ihren gespeicherten Anmeldedaten zu speichern.
Überprüfen Sie Ihren Fortschritt
Die folgende Abbildung zeigt das Notizbuch Datenreplikation überwachen , nachdem der Code erfolgreich ausgeführt wurde.
Als Datenentwickler bei der Golden Bank richten Sie kontinuierlichen Zugriff auf die aktuellsten Scorewerte von Kreditantragstellern ein, indem Sie die Datenreplikation zwischen der Tabelle CREDIT_SCORE in der Db2 on Cloud -Quellendatenbank und einem Thema in Event Streamskonfigurieren. Wenn Änderungen am Scorewert eines Antragstellers vorgenommen werden, haben die Hypothekengenehmiger der Golden Bank nahezu Echtzeitzugriff auf diese Änderungen.
Bereinigung (optional)
Wenn Sie die Lernprogramme im Anwendungsfall "Datenintegration" wiederholen möchten, löschen Sie die folgenden Artefakte.
Artefakt | Vorgehensweise zum Löschen |
---|---|
Data Replication -und Event Streams -Serviceinstanzen | 1. Wählen Sie im Navigationsmenü ' Dienste > Dienstinstanzen. 2. Klicken Sie auf das Menü Aktion neben dem Servicenamen und wählen Sie Löschenaus. |
Beispielprojekt für Datenintegration | Projekt löschen |
Nächste Schritte
Probieren Sie andere Lernprogramme aus:
Melden Sie sich für einen weiteren Data Fabric-Anwendungsfallan.
Weitere Informationen
Übergeordnetes Thema: Lernprogramme für Anwendungsfälle