Suivez ce tutoriel pour configurer la réplication de données entre un magasin de données source et cible avec le cas d'utilisation de l'intégration de données de la version d'essai de la matrice de données. Votre objectif est d'utiliser Data Replication pour intégrer les informations de score de crédit de la source de données Db2 on Cloud du fournisseur en configurant un flux de réplication en temps quasi réel et en continu avec une capture de données efficace à partir de la base de données source dans l'instance Event Streams de Golden Bank. Event Streams est un bus de messages à haut débit généré avec Apache Kafka. Il est optimisé pour l'ingestion d'événement dans IBM Cloud et la distribution de flux d'événements entre vos services et applications. Pour plus d'informations sur Event Streams, voir la section En savoir plus .
Le cas d'utilisation de ce tutoriel est que la Golden Bank doit se conformer à un nouveau règlement lorsqu'elle ne peut pas prêter à des demandeurs de prêt sous-qualifiés. En tant qu'ingénieur en données chez Golden Bank, vous devez fournir l'accès aux scores de crédit les plus à jour des demandeurs de prêt. Ces scores de crédit proviennent d'une base de données Db2 on Cloud détenue par un fournisseur externe et distribuée en continu dans le concentrateur Event Streams de Golden Bank. Les données du concentrateur Event Streams sont utilisées par l'application pour rechercher les scores de crédit des demandeurs d'hypothèque afin de déterminer l'approbation de prêt pour les demandeurs qualifiés.
L'image animée suivante fournit un aperçu rapide de ce que vous allez accomplir à la fin du tutoriel. Cliquez sur l'image pour afficher une image plus grande.
Aperçu du tutoriel
Dans ce tutoriel, vous exécutez les tâches suivantes :
- Configurez les prérequis.
- Tâche 1: Configurer Event Streams.
- Tâche 2: Afficher les données de score de crédit.
- Tâche 3: Créer une connexion à votre instance Event Streams .
- Tâche 4: Associer le service Data Replication à votre projet.
- Tâche 5: Configurer la réplication de données.
- Tâche 6: Exécuter la réplication de données.
- Tâche 7: Vérifier la réplication des données.
- Nettoyer
Regardez cette vidéo pour prévisualiser les étapes de ce tutoriel. Il peut y avoir de légères différences dans l'interface utilisateur affichée dans la vidéo. La vidéo est destinée à être un compagnon du tutoriel écrit.
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Conseils pour l'exécution de ce tutoriel
Voici quelques conseils pour réussir ce tutoriel.
Utiliser la vidéo image-in-picture
L'image animée suivante montre comment utiliser les fonctions d'image vidéo et de table des matières:
Obtenir de l'aide dans la communauté
Si vous avez besoin d'aide pour ce tutoriel, vous pouvez poser une question ou trouver une réponse dans le forum de discussion de la communautéCloud Pak for Data.
Configurez les fenêtres de votre navigateur
Pour une expérience optimale lors de l'exécution de ce tutoriel, ouvrez Cloud Pak for Data dans une fenêtre de navigateur et laissez cette page de tutoriel ouverte dans une autre fenêtre de navigateur pour basculer facilement entre les deux applications. Envisagez d'organiser les deux fenêtres du navigateur côte à côte pour faciliter le suivi.
Configuration des prérequis
Inscription à Cloud Pak for Data as a Service (en anglais)
Vous devez vous inscrire à Cloud Pak for Data as a Service et mettre à disposition les services nécessaires pour le cas d'utilisation d'intégration de données.
- Si vous disposez d'un compte Cloud Pak for Data as a Service existant, vous pouvez utiliser ce tutoriel. Si vous disposez d'un compte de plan Lite, un seul utilisateur par compte peut exécuter ce tutoriel.
- Si vous ne disposez pas encore d'un compte Cloud Pak for Data as a Service , inscrivez-vous à un essai de matrice de données.
Regardez la vidéo suivante pour en savoir plus sur le data fabric dans Cloud Pak for Data.
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Vérifiez les services mis à disposition nécessaires
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 01:29.
Procédez comme suit pour vérifier ou mettre à disposition les services nécessaires:
Dans Cloud Pak for Data, vérifiez que vous vous trouvez dans la région de Dallas. Si ce n'est pas le cas, cliquez sur le menu déroulant de la région, puis sélectionnez Dallas.
Dans le menu de navigation " , choisissez Services > Instances de service.
Utilisez la liste déroulante Produit pour déterminer s'il existe une instance de service Data Replication existante.
Si vous devez créer une instance de service Data Replication , cliquez sur Ajouter un service.
Sélectionnez Data Replication.
Sélectionnez le plan Lite .
Cliquez sur Créer.
Attendez que le service Data Replication soit mis à disposition, ce qui peut prendre quelques minutes.
Répétez ces étapes pour vérifier ou mettre à disposition les services supplémentaires suivants :
- studio watsonx.ai
- Cloud Object Storage
- Event Streams -Vous pouvez être invité à vous connecter à votre compte IBM Cloud .
Vérifier votre progression
L'image suivante montre les instances de service mises à disposition. Vous êtes maintenant prêt à créer l'exemple de projet.
Créez l'exemple de projet
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 02:19.
Si vous disposez déjà de l'exemple de projet pour ce tutoriel, passez à la Tâche 1. Sinon, procédez comme suit :
Accédez au projet d'exemple du didacticiel sur l'intégration des données dans le centre de ressources.
Cliquez sur Créer un projet.
Si vous êtes invité à associer le projet à une instance Cloud Object Storage, sélectionnez une instance Cloud Object Storage dans la liste.
Cliquez sur Créer.
Attendez que l'importation du projet soit terminée, puis cliquez sur Afficher le nouveau projet pour vérifier que le projet et les actifs ont été créés avec succès.
Cliquez sur l'onglet Actifs pour afficher les connexions, l'actif de données connecté et le bloc-notes.
Vérifier votre progression
L'image suivante montre l'onglet Actifs dans l'exemple de projet. Vous êtes maintenant prêt à démarrer le tutoriel.
Tâche 1: Configurer Event Streams
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 03:05.
Dans le cadre des prérequis, vous avez mis à disposition une nouvelle instance Event Streams . Vous devez maintenant configurer cette instance de service. Procédez comme suit pour:
Créez une rubrique pour stocker les données répliquées à partir des données source dans Db2 on Cloud. Cette rubrique est le coeur des flux Event Streams . Les données transitent par une rubrique entre les applications productrices et les applications consommatrices.
Copiez l'exemple de code qui contient les informations de serveur d'amorçage nécessaires pour configurer la réplication de données.
Créez les données d'identification que vous utiliserez pour créer une connexion au service dans le projet.
Retournez à la liste des ressources de la console IBM Cloud
Développez la section Intégration .
Cliquez sur le nom d'instance de service de votre instance Event Streams pour afficher les détails de l'instance.
Tout d'abord, pour créer la rubrique, cliquez sur la page Rubriques .
Cliquez sur Créer une rubrique.
Pour Nom de rubrique, entrez
golden-bank-mortgage
.Cliquez sur Suivant.
Dans la section Partitions , acceptez la valeur par défaut, puis cliquez sur Suivant.
Dans la section Conservation des messages , acceptez la valeur par défaut et cliquez sur Créer une rubrique.
Ouvrez un éditeur de texte et collez le nom de rubrique
golden-bank-mortgage
dans le fichier texte à utiliser ultérieurement.
Ensuite, dans la page Rubriques , cliquez sur Se connecter à ce service pour extraire les informations de connexion.
Copiez la valeur dans la zone Serveur d'amorçage . Le serveur d'amorçage est requis lors de la création d'une connexion à l'instance Event Streams dans votre projet.
Collez la valeur du serveur d'amorçage dans le même fichier texte à utiliser ultérieurement.
Cliquez sur l'onglet Exemple de code .
Copiez la valeur dans la zone Sample configuration properties . Vous utiliserez certaines propriétés de ce fragment pour vous connecter de manière sécurisée au service.
Collez l'exemple de code dans le même fichier texte à utiliser ultérieurement.
Cliquez sur le X pour fermer le panneau Connexion à ce service .
Enfin, pour créer les données d'identification, cliquez sur la page Données d'identification du service .
Cliquez sur Nouvelles données d'identification.
Acceptez le nom par défaut ou modifiez-le si vous le souhaitez.
Pour le Rôle, acceptez la valeur par défaut de Manager.
Développez la section Options avancées .
Dans la zone Sélectionner un ID de service , sélectionnez Générer automatiquement.
Cliquez sur Ajouter.
En regard des nouvelles données d'identification, cliquez sur l'icône Copier dans le presse-papiers .
Collez les données d'identification dans le même fichier texte à utiliser ultérieurement.
Votre fichier texte doit contenir toutes les informations suivantes:
TOPIC NAME: golden-bank-mortgage
BOOTSTRAP SERVER FIELD
broker-5-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-1-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-2-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-0-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-3-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-4-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093
SAMPLE CODE
bootstrap.servers=broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="token" password="<APIKEY>";
security.protocol=SASL_SSL
sasl.mechanism=PLAIN
ssl.protocol=TLSv1.2
ssl.enabled.protocols=TLSv1.2
ssl.endpoint.identification.algorithm=HTTPS
CREDENTIALS
{
"api_key": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"apikey": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"bootstrap_endpoints": "broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"iam_apikey_description": "Auto-generated for key crn:v1:bluemix:public:messagehub:us-south:a/a53b11fc95fcca4d96484d0de5f3bc3c:6b5a2cb2-74ef-432d-817f-f053873e7ed2:resource-key:96372942-5d26-4c59-8ca4-41ab6766ba91",
"iam_apikey_name": "Service credentials-1",
"iam_role_crn": "crn:v1:bluemix:public:iam::::serviceRole:Manager",
"iam_serviceid_crn": "crn:v1:bluemix:public:iam-identity::a/a53b11fc95fcca4d96484d0de5f3bc3c::serviceid:ServiceId-4773bed1-f423-43ea-adff-469389dca54c",
"instance_id": "6b5a2cb2-74ef-432d-817f-f053873e7ed2",
"kafka_admin_url": "https://pqny71x0b9vh7nwh.svc11.us-south.eventstreams.cloud.ibm.com",
"kafka_brokers_sasl": [
"broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
"broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093"
],
"kafka_http_url": "https://pqny71x0b9vh7nwh.svc11.us-south.eventstreams.cloud.ibm.com",
"password": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"user": "token"
Vérifier votre progression
L'image suivante montre la page Rubriques de votre instance Event Streams dans IBM Cloud. Vous êtes maintenant prêt à créer une connexion à l'instance Event Streams dans votre projet.
Tâche 2: Afficher les données de score de crédit
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 05:06.
L'exemple de projet inclut une connexion à l'instance Db2 on Cloud dans laquelle les données source sont stockées. Pour afficher l'actif de connexion et les données de score de crédit, procédez comme suit:
Revenez à l'onglet de navigateur Cloud Pak for Data as a Service . Le projet d'intégration de données s'affiche. Si vous ne voyez pas le projet, procédez comme suit:
Dans le menu de navigation " , choisissez Projets > Afficher tous les projets.
Cliquez sur le projet Intégration de données pour l'ouvrir.
Dans l'onglet Actifs , cliquez sur Tous les actifs.
Localisez l'actif de connexion Data Fabric Trial- Db2 on Cloud -Source .
Localisez l'actif de données connecté CREDIT_SCORE .
Cliquez sur l'actif CREDIT_SCORE pour afficher un aperçu. Cet actif de données est mappé à la table CREDIT_SCORE dans le schéma BANKING de l'instance Db2 on Cloud du fournisseur. Il inclut des informations sur les demandeurs d'hypothèque, telles que l'ID, le nom, l'adresse et le score de crédit. Vous souhaitez configurer la réplication de données pour cet actif de données.
Cliquez sur le nom du projet d'intégration de données dans la piste de navigation pour revenir au projet.
Vérifier votre progression
L'image suivante montre l'actif de données de score de crédit dans l'exemple de projet. Vous êtes maintenant prêt à créer une connexion au service Event Streams dans ce projet.
Tâche 3: Créer une connexion à votre instance Event Streams
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 05:34.
Pour configurer la réplication, vous avez également besoin d'une connexion à la nouvelle instance Event Streams que vous avez mise à disposition dans le cadre des prérequis à l'aide des informations collectées dans la Tâche 1. Pour créer l'actif de connexion, procédez comme suit:
Dans l'onglet Actifs , cliquez sur Nouvel actif > Connexion à une source de données.
Sélectionnez leApache Kafka connecteur, puis cliquez sur Suivant .
Pour le nom, entrez
Event Streams
.Dans la section Détails de connexion, renseignez les zones suivantes:
- Nom d'hôte du serveur Kafka : collez la valeur du serveur d'amorçage à partir du fichier texte que vous avez créé dans Tâche 1.
- Connexion sécurisée: sélectionnez SASL_SSL.
- Nom principal d'utilisateur: collez la valeur user des données d'identification du service dans votre fichier texte. Cette valeur est généralement
token
. - Mot de passe: collez la valeur password à partir des données d'identification du service dans votre fichier texte.
Cliquez sur Tester la connexion.
Une fois le test réussi, cliquez sur Créer. Si le test échoue, vérifiez les informations que vous avez copiées et collées à partir de votre fichier texte, puis réessayez. Si vous êtes invité à confirmer la création de la connexion sans définir l'emplacement et la souveraineté, cliquez à nouveau sur Créer .
Cliquez sur Tous les actifs pour afficher la nouvelle connexion.
Vérifier votre progression
L'image suivante montre l'onglet Actifs dans l'exemple de projet montrant le nouvel actif de connexion Event Streams . Vous êtes maintenant prêt à associer le service Data Replication à ce projet.
Tâche 4: Associer le service Data Replication à votre projet
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 06:32.
Pour utiliser le service Data Replication dans votre projet, vous devez associer votre instance de service au projet. Procédez comme suit pour associer le service Event Streams au projet d'intégration de données:
Dans le projet Intégration de données , cliquez sur l'onglet Gérer .
Cliquez sur la page Services et intégrations .
Cliquez sur Associer un service.
Cochez la case en regard de votre instance de service Data Replication .
Cliquez sur Associer.
Cliquez sur Annuler pour revenir à la page Services & Intégrations .
Vérifier votre progression
L'image suivante montre la page Services et intégrations avec le service Data Replication répertorié. Vous êtes maintenant prêt à configurer la réplication de données.
Tâche 5: Configurer la réplication de données
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 06:53.
Vous pouvez maintenant créer un actif Data Replication pour démarrer la réplication de données continue entre la source Db2 on Cloud et la cible Event Streams . Pour configurer la réplication de données, procédez comme suit:
Cliquez sur l'onglet Actifs dans le projet.
Cliquez sur Nouvel actif > Répliquer les données.
Pour le nom, entrez
CreditScoreReplication
.Cliquez sur Options source.
Sur la page Options source , sélectionnez Data Fabric Trial- Db2 on Cloud -Source dans la liste des connexions.
Cliquez sur Sélectionner des données.
Sur la page Sélectionner des données , sélectionnez le schéma BANKING > CREDIT_SCORE .
Cliquez sur Options cible.
Dans la page Options cible , sélectionnez Flux d'événements dans la liste des connexions.
Dans la zone Rubrique par défaut , collez le nom de rubrique créé dans Tâche 1,
golden-bank-mortgage
.Acceptez la valeur par défaut pour le reste des zones et cliquez sur Vérifier.
Passez en revue le récapitulatif et cliquez sur Créer.
Vérifier votre progression
L'image suivante montre leReplicateCreditScoreData écran avec la réplication arrêtée. Vous êtes maintenant prêt à exécuter la réplication de données.
Tâche 6: Exécuter la réplication de données
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 07:54.
Après avoir créé l'actif Data Replication , vous pouvez exécuter la réplication de données et afficher des informations sur le statut de la réplication. Pour exécuter la réplication de données, procédez comme suit:
Sur l'écran CreditScoreReplication, cliquez sur l'icône Run ' pour lancer le processus de réplication.
S'il s'agit de votre première exécution d'un actif Data Replication , vous pouvez être invité à fournir une clé d'API. Les actifs de réplication de données utilisent votre clé d'API IBM Cloud personnelle pour exécuter des opérations de réplication en toute sécurité sans interruption. Si vous souhaitez utiliser une clé API spécifique, cliquez sur l'icône " Paramètres ou " .
- Si vous disposez d'une clé d'API existante, cliquez sur Utiliser une clé d'API existante, collez la clé d'API, puis cliquez sur Sauvegarder.
- Si vous ne disposez pas d'une clé d'API existante, cliquez sur Générer une nouvelle clé d'API, puis sur Générer. Sauvegardez la clé d'API pour une utilisation ultérieure, puis cliquez sur Fermer.
Dans la section Journaux d'événements, cliquez sur l'icône d'actualisation " pour voir les nouveaux messages.
Au bout de quelques minutes, le message
Completed initial synchronization for table "BANKING"."CREDIT_SCORE"
s'affiche dans la section Journaux des événements .
A partir de ce point, toutes les modifications apportées à BANKING.CREDIT_SCORE de l'instance Db2 on Cloud sera détectée automatiquement et répliquée sur la cible.
Vérifier votre progression
L'image suivante montre leCreditScoreReplication écran avec la réplication en cours d'exécution et les messages dans le journal des événements. Vous êtes maintenant prêt à surveiller la réplication en surveillant le statut de l'actif de réplication, les événements et les métriques, et à vérifier que les données sont répliquées.
Tâche 7: Vérifier la réplication des données
Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 09:03.
Vous pouvez utiliser le code Python pour vérifier que les données de score de crédit ont été répliquées dans le concentrateur Event Streams de Golden Bank. L'exemple de projet comprend un carnet Jupyter contenant l'exemple de code Python. Pour éditer et exécuter le code dans le bloc-notes, procédez comme suit:
Cliquez sur le nom du projet d'intégration de données dans la piste de navigation pour revenir au projet.
Cliquez sur l'onglet Actifs.
Cliquez sur Tous les actifs.
Cliquez sur le menu de débordement " à la fin de la ligne du carnet de réplication de données Monitor, puis sélectionnez Modifier.
Exécutez la première cellule de code pour installer la bibliothèque Kafka-python.
Editez la deuxième cellule à l'aide des informations que vous avez enregistrées dans un fichier texte à partir de la Tâche 1.
topic: collez le nom de la rubrique. Cette valeur est
golden-bank-mortgage
.bootstrap_servers: collez la valeur du serveur d'amorçage à partir de votre fichier texte, qui doit être similaire à la valeur suivante:
broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093, broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093
sasl_plain_username: collez la valeur user des données d'identification du service dans le fichier texte. Cette valeur est généralement
token
.security_protocol: collez la valeur security.protocol dans le fichier texte. Cette valeur est généralement
SASL_SSL
.sasl_mechanism: collez la valeur sasl.mechanism à partir du fichier texte. Cette valeur est généralement
PLAIN
.sasl_plain_password: collez la valeur password des données d'identification du service dans le fichier texte.
Après avoir renseigné toutes les valeurs, exécutez le code dans la deuxième cellule afin de fournir les informations de connexion pour votre instance Event Streams .
Exécutez le code de la troisième cellule pour consommer les enregistrements de votre rubrique Event Streams .
Exécutez le code de la quatrième cellule pour imprimer les messages capturés dans votre objet consommateur.
Examinez la sortie affichant le contenu des messages distribués par la réplication dans votre rubrique Event Streams . Comparez cela à l'actif de données CREDIT_SCORE que vous avez affiché dans la Tâche 2.
Cliquez sur Fichier > Enregistrer pour enregistrer le bloc-notes Jupyter avec vos informations d'identification.
Vérifier votre progression
L'image suivante montre le bloc-notes Surveiller la réplication des données après avoir exécuté le code avec succès.
En tant qu'ingénieur de données chez Golden Bank, vous configurez un accès continu aux scores de crédit les plus à jour des demandeurs de prêt en configurant la réplication de données entre la table CREDIT_SCORE dans la base de données source Db2 on Cloud et une rubrique dans Event Streams. S'il y a des changements au score de crédit d'un candidat, les approbateurs de prêt hypothécaire de la Golden Bank auront un accès en temps quasi réel à ces changements.
Nettoyage (facultatif)
Si vous souhaitez reprendre les tutoriels dans le cas d'utilisation de l'intégration de données, supprimez les artefacts suivants.
Artefact | Comment supprimer |
---|---|
Instances de service Data Replication et Event Streams | 1. Dans le menu de navigation " , choisissez Services > Instances de service. 2. Cliquez sur le menu Action en regard du nom de service et choisissez Supprimer. |
Exemple de projet d'intégration de données | Supprimer un projet |
Etapes suivantes
Essayez d'autres tutoriels:
Inscrivez-vous pour un autre cas d'utilisation de matrice de données.
En savoir plus
Rubrique parent: Tutoriels de cas d'utilisation