0 / 0
영어 버전 문서로 돌아가기
데이터 통합 학습서: 데이터 복제

데이터 통합 학습서: 데이터 복제

이 학습서를 사용하여 데이터 패브릭 평가판의 데이터 통합 유스 케이스를 사용하여 소스 및 대상 데이터 저장소 간에 데이터 복제를 설정하십시오. 사용자의 목표는 Data Replication 를 사용하여 소스 데이터베이스에서 사용자의 Golden Bank의 Event Streams 인스턴스로 효율적인 데이터 캡처와 함께 실시간에 가까운 연속 복제 피드를 설정함으로써 제공자의 Db2 on Cloud 데이터 소스의 신용평점 정보를 통합하는 것입니다. Event Streams 는 Apache Kafka로 빌드된 처리량이 많은 메시지 버스입니다. IBM Cloud에 대한 이벤트 수집 및 서비스와 애플리케이션 간 이벤트 스트림 분배에 최적화되어 있습니다. Event Streams에 대한 자세한 정보는 자세히 보기 섹션을 참조하십시오.

빠른 시작: 이 학습서의 샘플 프로젝트를 아직 작성하지 않은 경우 자원 허브에서 데이터 통합 샘플 프로젝트 에 액세스하십시오.

이 학습서의 내용은 골든 뱅크가 자격을 갖춘 대출 신청자에게 대출할 수 없는 새로운 규정을 고수할 필요가 있다는 것입니다. 골든 은행의 데이터 엔지니어로서 대출 신청자의 최신 신용 점수에 대한 액세스를 제공해야 합니다. 이러한 신용 점수는 외부 제공자가 소유한 Db2 on Cloud 데이터베이스에서 얻어지며 지속적으로 Golden Bank의 Event Streams 허브로 전달됩니다. Event Streams 허브의 데이터는 애플리케이션이 규정된 신청자에 대한 대출 승인을 판별하기 위해 모기지 신청자의 신용 점수를 검색하는 데 사용됩니다.

다음 애니메이션 이미지는 학습 종료 시 수행할 작업에 대한 빠른 미리보기를 제공합니다. 더 큰 이미지를 보려면 이미지를 클릭하십시오.

애니메이션 이미지

튜토리얼 미리보기

이 학습서에서는 다음 태스크를 완료합니다.

비디오 시청 비디오를 시청하면 이 학습서의 단계를 미리 볼 수 있습니다. 비디오에 표시된 사용자 인터페이스에 약간의 차이가 있을 수 있습니다. 이 비디오는 작성된 학습서와 함께 사용하기 위한 것입니다.

이 비디오는 이 문서의 개념 및 태스크를 학습하기 위한 시각적 방법을 제공합니다.





이 학습을 완료하기 위한 팁다음은 이 학습서를 성공적으로 완료하기 위한 몇 가지 팁입니다.

비디오 사진 사용

팁: 비디오를 시작한 후 학습을 통해 화면이동하면 비디오가 그림 모드로 이동합니다. 사진에서 가장 좋은 경험을 얻으려면 비디오 목차를 닫으십시오. 그림 모드를 사용하여 이 학습서의 태스크를 완료하면서 비디오를 따라갈 수 있습니다. 각 태스크에 대한 시간소인을 클릭하여 수행하십시오.

다음 애니메이션 이미지는 비디오 픽처 인 픽처 및 목차 기능을 사용하는 방법을 보여줍니다.

그림 및 장 사용 방법

커뮤니티에서 도움 받기

이 튜토리얼에 대한 도움이 필요한 경우 Cloud Pak for Data 커뮤니티 토론 포럼에서 질문하거나 응답을 찾을 수 있습니다.

브라우저 창 설정

이 튜토리얼을 완료하는 최적의 경험을 위해 한 브라우저 창에서 Cloud Pak for Data 를 열고 두 애플리케이션 간에 쉽게 전환할 수 있도록 다른 브라우저 창에서 이 튜토리얼 페이지를 열어 두십시오. 따라하기 쉽도록 두 개의 브라우저 창을 나란히 배열하는 것을 고려하십시오.

병행 학습서 및 UI

팁: 사용자 인터페이스에서 이 학습서를 완료하는 동안 안내식 둘러보기가 표시되면 나중에를 클릭하십시오.



전제조건 설정

Cloud Pak for Data as a Service 가입

Cloud Pak for Data as a Service 에 등록하고 데이터 통합 유스 케이스에 필요한 서비스를 프로비저닝해야 합니다.

  • 기존 Cloud Pak for Data as a Service 계정이 있는 경우 이 튜토리얼을 시작할 수 있습니다. Lite 플랜 계정이 있는 경우에는 계정당 한 명의 사용자만 이 학습서를 실행할 수 있습니다.
  • Cloud Pak for Data as a Service 계정이 아직 없는 경우에는 데이터 패브릭 평가판에 등록하십시오.

비디오 시청 다음 비디오를 보고 Cloud Pak for Data의 데이터 패브릭에 대해 알아보십시오.

이 비디오는 이 문서의 개념 및 태스크를 학습하기 위한 시각적 방법을 제공합니다.

필요한 프로비저닝된 서비스 확인

학습서 비디오 미리보기 이 태스크를 미리 보려면 01:29에 시작하는 비디오를 보십시오.

중요: Data Replication 는 댈러스 지역에서만 사용 가능합니다. 필요한 경우 계속하기 전에 댈러스 지역으로 전환하십시오.

필요한 서비스를 확인하거나 프로비저닝하려면 다음 단계를 수행하십시오.

  1. Cloud Pak for Data에서 댈러스 지역에 있는지 확인하십시오. 그렇지 않으면 지역 드롭 다운을 클릭한 후 댈러스를 선택하십시오.
    지역 변경

  2. Cloud Pak for Data 탐색 메뉴 탐색 메뉴에서 서비스 > 서비스 인스턴스를 선택하십시오.

  3. 제품 드롭 다운 목록을 사용하여 기존 Data Replication 서비스 인스턴스가 있는지 여부를 판별하십시오.

  4. Data Replication 서비스 인스턴스를 작성해야 하는 경우 서비스 추가를 클릭하십시오.

    1. Data Replication을 선택하십시오.

    2. Lite 플랜을 선택하십시오.

    3. 작성을 클릭하십시오.

  5. Data Replication 서비스가 프로비저닝되는 동안 기다리십시오. 완료하는 데 몇 분이 걸릴 수 있습니다.

  6. 다음과 같은 추가 서비스를 확인하거나 프로비저닝하려면 다음 단계를 반복하십시오.

    • Watson Studio
    • Cloud Object Storage
    • Event Streams - IBM Cloud 계정에 로그인하라는 프롬프트가 표시될 수 있습니다.

체크포인트 아이콘 진행 상태 확인

다음 이미지는 프로비저닝된 서비스 인스턴스를 표시합니다. 이제 샘플 프로젝트를 작성할 준비가 되었습니다.

프로비저닝된 서비스

샘플 프로젝트 작성

학습서 비디오 미리보기 이 태스크를 미리 보려면 02:19에 시작하는 비디오를 보십시오.

이 학습서에 대한 샘플 프로젝트가 이미 있는 경우 태스크 1로 건너뛰십시오. 그렇지 않으면, 다음 단계를 수행하십시오.

  1. 자원 허브에서 데이터 통합 학습서 샘플 프로젝트 에 액세스하십시오.

  2. 프로젝트 작성을 클릭하십시오.

  3. 프로젝트를 Cloud Object Storage 인스턴스에 연관시키도록 프롬프트가 표시되면 목록에서 Cloud Object Storage 인스턴스를 선택하십시오.

  4. 작성을 클릭하십시오.

  5. 프로젝트 가져오기가 완료될 때까지 기다린 후 새 프로젝트 보기 를 클릭하여 프로젝트 및 자산이 성공적으로 작성되었는지 확인하십시오.

  6. 자산 탭을 클릭하여 연결, 연결된 데이터 자산 및 노트북을 확인하십시오.

참고: 이 유스 케이스에 포함된 학습서를 보여주는 둘러관련 프로그램을 볼 수 있습니다. 안내식 둘러보기의 링크는 이 학습서 지시사항을 엽니다.

체크포인트 아이콘 진행 상태 확인

다음 이미지는 샘플 프로젝트의 자산 탭을 표시합니다. 이제 학습서를 시작할 준비가 되었습니다.

샘플 프로젝트




태스크 1: Event Streams 설정

학습서 비디오 미리보기 이 태스크를 미리 보려면 03:05에서 시작하는 비디오를 보십시오.

전제조건의 일부로 새 Event Streams 인스턴스를 프로비저닝했습니다. 이제 해당 서비스 인스턴스를 설정해야 합니다. 다음 단계를 수행하십시오.

  • Db2 on Cloud의 소스 데이터에서 복제된 데이터를 저장할 주제를 작성하십시오. 이 주제는 Event Streams 플로우의 핵심입니다. 데이터는 토픽을 통해 생성 애플리케이션에서 이용 애플리케이션으로 전달됩니다.

  • 데이터 복제를 설정하는 데 필요한 부트스트랩 서버 정보를 포함하는 샘플 코드를 복사하십시오.

  • 프로젝트에서 서비스에 대한 연결을 작성하는 데 사용할 신임 정보를 작성하십시오.

  1. IBM Cloud 콘솔 리소스 목록으로 돌아가십시오.

  2. 통합 섹션을 펼치십시오.

  3. Event Streams 인스턴스의 서비스 인스턴스 이름을 클릭하여 인스턴스 세부사항을 보십시오.

  4. 먼저, 토픽을 작성하려면 토픽 페이지를 클릭하십시오.

    1. 주제 작성을 클릭하십시오.

    2. 주제 이름golden-bank-mortgage를 입력하십시오.

    3. 다음 을 클릭하십시오.

    4. 파티션 섹션에서 기본값을 승인하고 다음을 클릭하십시오.

    5. 메시지 보존 섹션에서 기본값을 승인하고 토픽 작성을 클릭하십시오.

    6. 텍스트 편집기를 열고 나중에 사용할 수 있도록 주제 이름 golden-bank-mortgage 을 텍스트 파일에 붙여넣으십시오.

  5. 그런 다음 주제 페이지로 돌아가서 이 서비스에 연결 을 클릭하여 연결 정보를 검색하십시오.

    1. 부트스트랩 서버 필드의 값을 복사하십시오. 부트스트랩 서버는 프로젝트에서 Event Streams 인스턴스에 대한 연결을 작성할 때 필요합니다.

    2. 부트스트랩 서버 값을 나중에 사용할 동일한 텍스트 파일에 붙여넣으십시오.

    3. 샘플 코드 탭을 클릭하십시오.

    4. 샘플 구성 특성 필드의 값을 복사하십시오. 이 스니펫의 일부 특성을 사용하여 서비스에 안전하게 연결합니다.

    5. 나중에 사용하기 위해 동일한 텍스트 파일에 샘플 코드를 붙여넣으십시오.

    6. X 를 클릭하여 이 서비스에 연결 패널을 닫으십시오.

  6. 마지막으로 신임 정보를 작성하려면 서비스 신임 정보 페이지를 클릭하십시오.

    1. 새 인증 정보를 클릭하십시오.

    2. 기본 이름을 승인하거나, 원하는 경우 변경하십시오.

    3. 역할에 대해 관리자의 기본값을 승인하십시오.

    4. 고급 옵션 섹션을 펼치십시오.

    5. 서비스 ID 선택 필드에서 자동 생성을 선택하십시오.

    6. 추가 를 클릭하십시오.

    7. 새 신임 정보 옆에 있는 클립보드에 복사 아이콘을 클릭하십시오.

    8. 나중에 사용하도록 동일한 텍스트 파일에 신임 정보를 붙여넣으십시오.

텍스트 파일에는 다음 정보가 모두 포함되어야 합니다.

TOPIC NAME: golden-bank-mortgage

BOOTSTRAP SERVER FIELD
broker-5-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-1-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-2-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-0-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-3-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093,broker-4-7w81scvsqh485hbz.kafka.svc04.us-south.eventstreams.cloud.ibm.com:9093

SAMPLE CODE
bootstrap.servers=broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="token" password="<APIKEY>";
security.protocol=SASL_SSL
sasl.mechanism=PLAIN
ssl.protocol=TLSv1.2
ssl.enabled.protocols=TLSv1.2
ssl.endpoint.identification.algorithm=HTTPS
CREDENTIALS
{
  "api_key": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
  "apikey": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
  "bootstrap_endpoints": "broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
  "iam_apikey_description": "Auto-generated for key crn:v1:bluemix:public:messagehub:us-south:a/a53b11fc95fcca4d96484d0de5f3bc3c:6b5a2cb2-74ef-432d-817f-f053873e7ed2:resource-key:96372942-5d26-4c59-8ca4-41ab6766ba91",
  "iam_apikey_name": "Service credentials-1",
  "iam_role_crn": "crn:v1:bluemix:public:iam::::serviceRole:Manager",
  "iam_serviceid_crn": "crn:v1:bluemix:public:iam-identity::a/a53b11fc95fcca4d96484d0de5f3bc3c::serviceid:ServiceId-4773bed1-f423-43ea-adff-469389dca54c",
  "instance_id": "6b5a2cb2-74ef-432d-817f-f053873e7ed2",
  "kafka_admin_url": "https://pqny71x0b9vh7nwh.svc11.us-south.eventstreams.cloud.ibm.com",
  "kafka_brokers_sasl": [
    "broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
    "broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
    "broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
    "broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
    "broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093",
    "broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093"
  ],
  "kafka_http_url": "https://pqny71x0b9vh7nwh.svc11.us-south.eventstreams.cloud.ibm.com",
  "password": "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
  "user": "token"

체크포인트 아이콘 진행 상태 확인

다음 이미지는 IBM Cloud의 Event Streams 인스턴스에 대한 주제 페이지를 표시합니다. 이제 프로젝트에서 Event Streams 인스턴스에 대한 연결을 작성할 준비가 되었습니다.

주제 페이지




태스크 2: 신용평점 데이터 보기

학습서 비디오 미리보기 이 태스크를 미리보려면 05:06에서 시작하는 비디오를 보십시오.

샘플 프로젝트에는 소스 데이터가 저장되는 Db2 on Cloud 인스턴스에 대한 연결이 포함되어 있습니다. 연결 자산 및 신용평점 데이터를 보려면 다음 단계를 수행하십시오.

  1. Cloud Pak for Data as a Service 브라우저 탭으로 돌아가십시오. 데이터 통합 프로젝트가 표시됩니다. 프로젝트가 표시되지 않으면 다음 단계를 수행하십시오.

    1. Cloud Pak for Data 탐색 메뉴 탐색 메뉴에서 프로젝트 > 모든 프로젝트 보기를 선택하십시오.

    2. 데이터 통합 프로젝트를 클릭하여 여십시오.

  2. 자산 탭에서 모든 자산을 클릭하십시오.

  3. Data Fabric 평가판- Db2 on Cloud -소스 연결 자산을 찾으십시오.

  4. CREDIT_SCORE 연결 데이터 자산을 찾으십시오.

  5. 미리보기를 보려면 CREDIT_SCORE 자산을 누르십시오. 이 데이터 자산은 제공자의 Db2 on Cloud 인스턴스에 있는 BANKING 스키마의 CREDIT_SCORE 테이블에 맵핑됩니다. 여기에는 모기지 신청자에 대한 정보 (예: ID, 이름, 주소 및 신용평점) 가 포함됩니다. 이 데이터 자산에 대한 데이터 복제를 설정하려고 합니다.

  6. 탐색 추적에서 데이터 통합 프로젝트 이름을 클릭하여 프로젝트로 돌아가십시오.
    탐색 추적

체크포인트 아이콘 진행 상태 확인

다음 이미지는 샘플 프로젝트의 신용평점 데이터 자산을 표시합니다. 이제 이 프로젝트에서 Event Streams 서비스에 대한 연결을 작성할 준비가 되었습니다.

신용평점 데이터 자산




태스크 3: Event Streams 인스턴스에 대한 연결 작성

학습서 비디오 미리보기 이 태스크를 미리 보려면 05:34에서 시작하는 비디오를 보십시오.

복제를 설정하려면 태스크 1에서 수집한 정보를 사용하여 전제조건 의 일부로 프로비저닝한 새 Event Streams 인스턴스에 대한 연결도 필요합니다. 연결 자산을 작성하려면 다음 단계를 수행하십시오.

  1. 자산 탭에서 새 자산 > 데이터 소스에 연결을 클릭하십시오.

  2. 커넥터의 경우 Apache Kafka를 선택하고 선택을 클릭하십시오.

  3. 이름의 경우 Event Streams을(를) 입력하십시오.

  4. 연결 세부사항 섹션에서 다음 필드를 완료하십시오.

    • Kafka 서버 호스트 이름: 태스크 1에서 작성한 텍스트 파일에서 부트스트랩 서버 값을 붙여넣으십시오.
    • 보안 연결: SASL_SSL을 선택하십시오.
    • 사용자 프린시펄 이름: 서비스 신임 정보user 값을 텍스트 파일에 붙여넣으십시오. 이 값은 일반적으로 token입니다.
    • 비밀번호: 서비스 신임 정보password 값을 텍스트 파일에 붙여넣으십시오.
  5. 연결 테스트를 클릭하십시오.

  6. 테스트에 성공하면 작성을 클릭하십시오. 테스트에 실패하면 텍스트 파일에서 복사하여 붙여넣은 정보를 확인하고 다시 시도하십시오. 위치 및 주권을 설정하지 않고 연결 작성을 확인하는 프롬프트가 표시되면 작성 을 다시 클릭하십시오.

  7. 새 연결을 보려면 모든 자산 을 클릭하십시오.

체크포인트 아이콘 진행 상태 확인

다음 이미지는 새 Event Streams 연결 자산을 표시하는 샘플 프로젝트의 자산 탭을 표시합니다. 이제 Data Replication 서비스를 이 프로젝트와 연관시킬 준비가 되었습니다.

EVent Streams 연결 자산




태스크 4: Data Replication 서비스를 프로젝트와 연관

학습서 비디오 미리보기 이 태스크를 미리 보려면 06:32에서 시작하는 비디오를 보십시오.

프로젝트에서 Data Replication 서비스를 사용하려면 서비스 인스턴스를 프로젝트와 연관시켜야 합니다. Event Streams 서비스를 데이터 통합 프로젝트와 연관시키려면 다음 단계를 수행하십시오.

  1. 데이터 통합 프로젝트에서 관리 탭을 클릭하십시오.

  2. 서비스 및 통합 페이지를 클릭하십시오.

  3. 서비스 연관을 클릭하십시오.

  4. Data Replication 서비스 인스턴스 옆에 있는 상자를 선택하십시오.

  5. 연관을 클릭하십시오.

  6. 취소 를 클릭하여 서비스 및 통합 페이지로 돌아가십시오.

체크포인트 아이콘 진행 상태 확인

다음 이미지는 Data Replication 서비스가 나열된 서비스 및 통합 페이지를 표시합니다. 이제 데이터 복제를 설정할 준비가 되었습니다.

서비스를 프로젝트와 연관




태스크 5: 데이터 복제 설정

학습서 비디오 미리보기 이 태스크를 미리보려면 06:53에서 시작하는 비디오를 보십시오.

이제 Data Replication 자산을 작성하여 Db2 on Cloud 소스와 Event Streams 대상 간에 연속적인 데이터 복제를 시작할 수 있습니다. 데이터 복제를 설정하려면 다음 단계를 수행하십시오.

  1. 프로젝트에서 자산 탭을 클릭하십시오.

  2. 새 자산 > Data Replication를 클릭하십시오.

  3. 이름의 경우 CreditScoreReplication을(를) 입력하십시오.

  4. 소스 옵션을 클릭하십시오.

  5. 소스 옵션 페이지의 연결 목록에서 Data Fabric 평가판- Db2 on Cloud -소스 를 선택하십시오.

  6. 데이터 선택을 클릭하십시오.

  7. 데이터 선택 페이지에서 BANKING 스키마 > CREDIT_SCORE 테이블을 선택하십시오.

  8. 대상 옵션을 클릭하십시오.

  9. 대상 옵션 페이지의 연결 목록에서 이벤트 스트림 을 선택하십시오.

  10. 기본 주제 필드에서 태스크 1, golden-bank-mortgage에 작성된 주제 이름을 붙여넣으십시오.

  11. 나머지 필드에 대해 기본값을 승인하고 검토를 클릭하십시오.

  12. 요약을 검토하고 작성을 클릭하십시오.

체크포인트 아이콘 진행 상태 확인

다음 이미지는 복제가 중지된 ReplicateCreditScoreData 화면을 표시합니다. 이제 데이터 복제를 실행할 준비가 되었습니다.

데이터 복제 자산




태스크 6: 데이터 복제 실행

학습서 비디오 미리보기 이 태스크를 미리 보려면 07:54에서 시작하는 비디오를 보십시오.

Data Replication 자산을 작성한 후 데이터 복제를 실행하고 복제 상태에 대한 정보를 볼 수 있습니다. 데이터 복제를 실행하려면 다음 단계를 수행하십시오.

  1. CreditScore복제 화면에서 실행 아이콘 복제 실행 을 클릭하여 복제 프로세스를 시작하십시오.

    Data Replication 자산을 처음 실행하는 경우 API키를 제공하도록 프롬프트가 표시될 수 있습니다. 데이터 복제 자산은 개인 IBM Cloud API키를 사용하여 중단 없이 복제 조작을 안전하게 실행합니다. 특정 API키를 사용하려면 설정 아이콘 설정을 클릭하십시오.

    • 기존 API키가 있는 경우 기존 API키 사용을 클릭하고 API키를 붙여넣은 후 저장을 클릭하십시오.
    • 기존 API키가 없는 경우 새 API키 생성을 클릭한 후 생성을 클릭하십시오. 나중에 사용할 수 있도록 API키를 저장한 후 닫기를 클릭하십시오.
  2. 이벤트 로그 섹션에서 새로 고치기 아이콘 새로 고침 을 클릭하여 새 메시지를 확인하십시오.

  3. 몇 분 후에 Completed initial synchronization for table "BANKING"."CREDIT_SCORE" 메시지가 이벤트 로그 섹션에 표시됩니다.

이 시점부터 Db2 on Cloud 인스턴스의 BANKING.CREDIT_SCORE 테이블에 대한 변경사항이 자동으로 발견되고 대상에 복제됩니다.

체크포인트 아이콘 진행 상태 확인

다음 이미지는 실행 중인 복제 및 이벤트 로그의 메시지가 있는 CreditScore복제 화면을 표시합니다. 이제 복제 자산의 상태, 이벤트 및 메트릭을 감시하여 복제를 모니터하고 데이터가 복제되고 있는지 확인할 준비가 되었습니다.

데이터 복제 자산 실행 중




태스크 7: 데이터 복제 확인

학습서 비디오 미리보기 이 태스크를 미리 보려면 09:03에 시작하는 비디오를 보십시오.

Python 코드를 사용하여 신용평점 데이터가 Golden Bank의 Event Streams 허브에 복제되었는지 확인할 수 있습니다. 샘플 프로젝트에는 샘플 Python 코드를 포함하는 Jupyter 노트북이 포함되어 있습니다. 노트북에서 코드를 편집하고 실행하려면 다음 단계를 수행하십시오.

  1. 탐색 추적에서 데이터 통합 프로젝트 이름을 클릭하여 프로젝트로 돌아가십시오.
    탐색 추적

  2. 자산 탭을 클릭하십시오.

  3. 모든 자산을 클릭하십시오.

  4. 데이터 복제 모니터 노트북의 행 끝에 있는 오버플로우 메뉴 오버플로우 메뉴 를 클릭하고 편집을 선택하십시오.

  5. 첫 번째 코드 셀을 실행하여 Kafka-python 라이브러리를 설치하십시오.

  6. 태스크 1의 텍스트 파일에 저장한 정보를 사용하여 두 번째 셀을 편집하십시오.

    • 주제: 주제 이름을 붙여넣으십시오. 이 값은 golden-bank-mortgage입니다.

    • bootstrap_servers: 텍스트 파일에서 부트스트랩 서버 값을 붙여넣으십시오. 이 값은 다음과 유사해야 합니다.

      broker-5-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,
      broker-0-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,
      broker-2-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,
      broker-1-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,
      broker-3-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093,
      broker-4-pqny71x0b9vh7nwh.kafka.svc11.us-south.eventstreams.cloud.ibm.com:9093
      
    • sasl_plain_username: 텍스트 파일의 서비스 신임 정보 에서 user 값을 붙여넣으십시오. 이 값은 일반적으로 token입니다.

    • security_protocol: 텍스트 파일에서 security.protocol 값을 붙여넣으십시오. 이 값은 일반적으로 SASL_SSL입니다.

    • sasl_mechanism: 텍스트 파일에서 sasl.mechanism 값을 붙여넣으십시오. 이 값은 일반적으로 PLAIN입니다.

    • sasl_plain_password: 텍스트 파일의 서비스 신임 정보 에서 password 값을 붙여넣으십시오.

  7. 모든 값을 완료한 후 두 번째 셀에서 코드를 실행하여 Event Streams 인스턴스에 대한 연결 정보를 제공하십시오.

  8. 세 번째 셀의 코드를 실행하여 Event Streams 주제의 레코드를 이용하십시오.

  9. 네 번째 셀에서 코드를 실행하여 이용자 오브젝트에 캡처된 메시지를 인쇄하십시오.

  10. 복제에 의해 Event Streams 주제로 전달된 메시지의 컨텐츠를 표시하는 출력을 검토하십시오. 이를 태스크 2에서 본 CREDIT_SCORE 데이터 자산과 비교하십시오.

  11. 파일 > 저장 을 클릭하여 저장된 신임 정보와 함께 Jupyter 노트북을 저장하십시오.

체크포인트 아이콘 진행 상태 확인

다음 이미지는 코드를 성공적으로 실행한 후 데이터 복제 모니터 노트북을 표시합니다.

데이터 복제를 모니터하기 위한 Jupyter 노트북



Golden Bank의 데이터 엔지니어로서 Db2 on Cloud 소스 데이터베이스의 CREDIT_SCORE 테이블과 Event Streams의 주제 간에 데이터 복제를 구성하여 대출 신청자의 최신 신용 점수에 대한 지속적인 액세스를 설정합니다. 신청자의 신용평점에 변경사항이 있는 경우, 골든 은행의 모기지 승인자는 해당 변경사항에 거의 실시간으로 액세스할 수 있습니다.

정리 (선택사항)

데이터 통합 유스 케이스에서 학습서를 다시 가져오려면 다음 아티팩트를 삭제하십시오.

아티팩트 삭제 방법
Data Replication 및 Event Streams 서비스 인스턴스 1. 탐색 메뉴 탐색 메뉴에서 서비스 > 서비스 인스턴스를 선택하십시오.
2. 서비스 이름 옆에 있는 조치 메뉴를 클릭하고 삭제를 선택하십시오.
데이터 통합 샘플 프로젝트 프로젝트 삭제

다음 단계

자세한 정보

상위 주제: 유스 케이스 학습서

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기