Analytics Engine HDFS 연결

Analytics Engine HDFS 연결을 사용하여 WebHDFS API로 IBM Analytics Engine에 연결하십시오.

IBM Analytics Engine은 IBM Cloud의 Hadoop 및 Spark 서비스로, 고급 분석 애플리케이션을 개발하고 배치할 환경을 제공합니다. 데이터는 IBM Cloud Object Storage(COS)에 저장됩니다. Analytics Engine 서비스는 필요 시에 컴퓨팅 노드의 클러스터를 시작합니다. Analytics Engine HDFS는 이전에는 "IBM BigInsights on Cloud"로 알려져 있습니다.

IBM Analytics Engine에 대한 연결 작성

연결 자산을 작성하려면 다음 연결 세부사항이 필요합니다.

  • WebHDFS URL: 필수.
  • 사용자 이름. 필수입니다.
  • 비밀번호
  • SSL 인증서, Apache Hive 서버에 필요한 경우

찾아보기를 위해 루트에 대해 사용자 이름의 홈 디렉토리를 사용하려면 홈으로 사용을 선택하십시오.

개인 연결의 경우 인터넷에 외부화되지 않은 데이터베이스(예: 방화벽 뒤)에 연결하려면 보안 연결을 설정해야 합니다.

Hive 특성
Hive 특성은 대상(쓰기) 데이터에 대해 Analytics Engine HDFS 연결을 사용하려는 경우에만 사용됩니다. Hive 특성을 지정하고 파일을 대상 HDFS에 작성하면 연관된 파일에 대한 Hive 테이블을 작성하는 Hive 연결이 설정됩니다. Analytics Engine의 Hive 테이블을 찾아보려면 Apache Hive 연결을 사용하십시오.

  • Hive 호스트: Apache Hive 서버의 호스트 이름 또는 IP 주소.
  • Hive 데이터베이스: Apache Hive의 데이터베이스.
  • Hive 포트 번호: Apache Hive 서버의 포트 번호. 기본값은 10000입니다.
  • Hive HTTP 경로: Apache Hive 서버가 HTTP 전송 모드에 대해 구성된 경우 엔드포인트의 경로(예: gateway/default/hive).
  • Hive 사용자
  • Hive 비밀번호

플랫폼에 있는 위치를 기반으로 연결을 작성하는 방법을 선택하십시오.

프로젝트에서 새 자산 > 연결을 클릭하십시오. 프로젝트에 연결 추가를 참조하십시오.


카탈로그에서 카탈로그에 추가 > 연결을 클릭하십시오. 카탈로그에 연결 자산 추가를 참조하십시오.


배치 공간에서 공간에 추가 > 연결을 클릭하십시오. 배치 공간에 데이터 자산 추가를 참조합니다.


플랫폼 자산 카탈로그에서 새 연결을 클릭하십시오. 플랫폼 연결 추가를 참조하십시오.

다음 단계: 연결에서 데이터 자산 추가

이 연결의 사용처

다음 작업공간 및 도구에서 Analytics Engine HDFS 연결을 사용할 수 있습니다.

프로젝트

  • Data Refinery(Watson Studio 또는 Watson Knowledge Catalog)
  • 메타데이터 가져오기(Watson Knowledge Catalog)
  • SPSS Modeler (Watson Studio)

카탈로그

  • 플랫폼 자산 카탈로그
  • 기타 카탈로그(Watson Knowledge Catalog)

Analytics Engine 설정

시작하기 학습서

지원되는 파일 유형

Analytics Engine HDFS 연결은 Avro, CSV, Delimited text, Excel, JSON, ORC, Parquet, SAS, SAV, SHP 및 XML 파일 유형을 지원합니다.

자세히 보기

상위 주제: 지원되는 연결