영어 버전 문서로 돌아가기생성된 코드 스니펫을 통해 데이터 로드
생성된 코드 스니펫을 통해 데이터 로드
마지막 업데이트 날짜: 2024년 10월 07일
자동으로 생성된 코드를 추가하여 프로젝트 데이터 자산에서 노트북 셀로 데이터를 로드할 수 있습니다. 자산 유형은 파일 또는 데이터베이스 연결일 수 있습니다.
노트북에서 빈 코드 셀을 클릭하고 노트북 도구 모음에서 코드 스니펫 아이콘 () 을 클릭하여 데이터 읽기 및 프로젝트의 자산을 선택하면 다음을 수행할 수 있습니다.
데이터 소스 액세스 인증 정보를 삽입합니다. 이 기능은 프로젝트에 추가된 모든 데이터 자산에 사용 가능합니다. 신임 정보를 사용하여 사용자 고유의 코드를 작성하여 자산에 액세스하고 선택한 데이터 구조에 데이터를 로드할 수 있습니다.
노트북 셀에 추가되는 코드를 생성합니다. 삽입된 코드는 사용자가 쉽게 데이터 세트 또는 연결에 대한 작업을 시작할 수 있도록 하는 빠른 시작의 역할을 합니다. 프로덕션 시스템의 경우 삽입된 코드를 주의해서 검토하여 사용자 요구사항을 더 충족시키는 자체 코드를 작성해야 하는지 여부를 판별해야 합니다.
코드 셀을 실행하면 데이터에 액세스하고 데이터는 선택한 데이터 구조로 로드됩니다.
참고:
- 다음과 같은 경우 일부 연결에 대해 생성된 코드를 제공하는 기능을 사용할 수 없습니다.
- 연결 신임 정보는 개인 신임 정보입니다.
- 연결이 보안 게이트웨이 링크를 사용합니다.
- 연결 신임 정보가 저장소에 저장됩니다.
- 사용 중인 파일 유형 또는 데이터베이스 연결이 다음 목록에 표시되지 않는 경우 일반 코드를 작성하도록 선택할 수 있습니다. Python의 경우 이는 StreamingBody 오브젝트이고 R의 경우 textConnection 오브젝트입니다.
- 다음과 같은 경우 일부 연결에 대해 생성된 코드를 제공하는 기능을 사용할 수 없습니다.
다음 테이블에서는 코드 생성 옵션을 지원하는 데이터 소스 연결(파일 유형 및 데이터베이스 연결)을 보여줍니다. 코드 생성 옵션은 데이터 소스, 노트북 코딩 언어 및 노트북 런타임 계산에 따라 다릅니다.
지원되는 파일 유형
데이터 소스 | 노트북 코딩 언어 | 컴퓨팅 엔진 유형 | 데이터 로드에 사용 가능한 지원 |
---|---|---|---|
CSV 파일 | |||
Python | Anaconda Python 배포 | pandasDataFrame에 데이터 로드 | |
Spark 사용 | pandasDataFrame 및 sparkSessionDataFrame에 데이터 로드 | ||
Hadoop 사용 | pandasDataFrame 및 sparkSessionDataFrame에 데이터 로드 | ||
R | Anaconda R 배포 | R 데이터 프레임에 데이터 로드 | |
Spark 사용 | R 데이터 프레임 및 sparkSessionDataFrame에 데이터 로드 | ||
Hadoop 사용 | R 데이터 프레임 및 sparkSessionDataFrame에 데이터 로드 | ||
Python 스크립트 | |||
Python | Anaconda Python 배포 | pandasStreamingBody에 데이터 로드 | |
Spark 사용 | pandasStreamingBody에 데이터 로드 | ||
Hadoop 사용 | pandasStreamingBody에 데이터 로드 | ||
R | Anaconda R 배포 | rRawObject에 데이터 로드 | |
Spark 사용 | rRawObject에 데이터 로드 | ||
Hadoop 사용 | rRawObject에 데이터 로드 | ||
JSON 파일 | |||
Python | Anaconda Python 배포 | pandasDataFrame에 데이터 로드 | |
Spark 사용 | pandasDataFrame 및 sparkSessionDataFrame에 데이터 로드 | ||
Hadoop 사용 | pandasDataFrame 및 sparkSessionDataFrame에 데이터 로드 | ||
R | Anaconda R 배포 | R 데이터 프레임에 데이터 로드 | |
Spark 사용 | R 데이터 프레임, rRawObject 및 sparkSessionDataFrame에 데이터 로드 | ||
Hadoop 사용 | R 데이터 프레임, rRawObject 및 sparkSessionDataFrame에 데이터 로드 | ||
.xlsx 및 .xls 파일 | |||
Python | Anaconda Python 배포 | pandasDataFrame에 데이터 로드 | |
Spark 사용 | pandasDataFrame에 데이터 로드 | ||
Hadoop 사용 | pandasDataFrame에 데이터 로드 | ||
R | Anaconda R 배포 | rRawObject에 데이터 로드 | |
Spark 사용 | 데이터 로드 지원 없음 | ||
Hadoop 사용 | 데이터 로드 지원 없음 | ||
8진 스트림 파일 유형 | |||
Python | Anaconda Python 배포 | pandasStreamingBody에 데이터 로드 | |
Spark 사용 | pandasStreamingBody에 데이터 로드 | ||
R | Anaconda R 배포 | rRawObject에서 데이터 로드 | |
Spark 사용 | rDataObject에서 데이터 로드 | ||
PDF 파일 유형 | |||
Python | Anaconda Python 배포 | pandasStreamingBody에 데이터 로드 | |
Spark 사용 | pandasStreamingBody에 데이터 로드 | ||
Hadoop 사용 | pandasStreamingBody에 데이터 로드 | ||
R | Anaconda R 배포 | rRawObject에서 데이터 로드 | |
Spark 사용 | rDataObject에서 데이터 로드 | ||
Hadoop 사용 | rRawData에 데이터 로드 | ||
ZIP 파일 유형 | |||
Python | Anaconda Python 배포 | pandasStreamingBody에 데이터 로드 | |
Spark 사용 | pandasStreamingBody에 데이터 로드 | ||
R | Anaconda R 배포 | rRawObject에서 데이터 로드 | |
Spark 사용 | rDataObject에서 데이터 로드 | ||
JPEG, PNG 이미지 파일 | |||
Python | Anaconda Python 배포 | pandasStreamingBody에 데이터 로드 | |
Spark 사용 | pandasStreamingBody에 데이터 로드 | ||
Hadoop 사용 | pandasStreamingBody에 데이터 로드 | ||
R | Anaconda R 배포 | rRawObject에서 데이터 로드 | |
Spark 사용 | rDataObject에서 데이터 로드 | ||
Hadoop 사용 | rDataObject에서 데이터 로드 | ||
2진 파일 | |||
Python | Anaconda Python 배포 | pandasStreamingBody에 데이터 로드 | |
Spark 사용 | pandasStreamingBody에 데이터 로드 | ||
Hadoop | 데이터 로드 지원 없음 | ||
R | Anaconda R 배포 | rRawObject에서 데이터 로드 | |
Spark 사용 | rRawObject에 데이터 로드 | ||
Hadoop | rDataObject에서 데이터 로드 |
지원되는 데이터베이스 연결
데이터 소스 | 노트북 코딩 언어 | 컴퓨팅 엔진 유형 | 데이터 로드에 사용 가능한 지원 |
---|---|---|---|
- Db2 Warehouse on Cloud - IBM Db2 on Cloud - IBM Db2 데이터베이스 |
|||
Python | Anaconda Python 배포 | ibmdbpyIda 및 ibmdbpyPandas로 데이터 로드 | |
Spark 사용 | ibmdbpyIda, ibmdbpyPandas 및 sparkSessionDataFrame으로 데이터 로드 | ||
Hadoop 사용 | ibmdbpyIda, ibmdbpyPandas 및 sparkSessionDataFrame으로 데이터 로드 | ||
R | Anaconda R 배포 | ibmdbrIda 및 ibmdbrDataframe로 데이터 로드 | |
Spark 사용 | ibmdbrIda, ibmdbrDataFrame 및 sparkSessionDataFrame으로 데이터 로드 | ||
Hadoop 사용 | ibmdbrIda, ibmdbrDataFrame 및 sparkSessionDataFrame으로 데이터 로드 | ||
- Db2 for z/OS |
|||
Python | Anaconda Python 배포 | ibmdbpyIda 및 ibmdbpyPandas로 데이터 로드 | |
Spark 사용 | 데이터 로드 지원 없음 | ||
- Amazon Simple Storage Services(S3) - IAM 액세스 정책을 갖는 Amazon Simple Storage Services(S3) |
|||
Python | Anaconda Python 배포 | pandasStreamingBody에 데이터 로드 | |
Hadoop 사용 | pandasStreamingBody 및 sparkSessionSetup로 데이터 로드 | ||
R | Anaconda R 배포 | rRawObject에 데이터 로드 | |
Hadoop 사용 | rRawObject 및 sparkSessionSetup로 데이터 로드 | ||
- IBM Cloud Databases for PostgreSQL - Microsoft SQL Server |
|||
Python | Anaconda Python 배포 | pandasDataFrame에 데이터 로드 | |
Spark 사용 | pandasDataFrame에 데이터 로드 | ||
R | Anaconda R 배포 | R 데이터 프레임에 데이터 로드 | |
Spark 사용 | R 데이터 프레임 및 sparkSessionDataFrame에 데이터 로드 | ||
Python | Anaconda Python 배포 | Load data into pandasDataFrame In the generated code: - Edit the path parameter in the last line of code - Remove the comment tagging To read data, see 데이터 원본에서 데이터 읽기 To search data, see 데이터 개체 검색 To write data, see 데이터 원본에 데이터 쓰기 |
|
Spark 사용 | 데이터 로드 지원 없음 | ||
R | Anaconda R 배포 | R 데이터 프레임으로 데이터 로드 생성된 코드에서: -코드의 마지막 행에서 경로 매개변수 편집 -주석 태그 지정 제거 데이터를 읽으려면 데이터 소스에서 데이터 읽기 를 참조하십시오. 데이터를 검색하려면 데이터 오브젝트 검색 을 참조하십시오. 데이터를 쓰려면 데이터 소스에 데이터 쓰기 를 참조하십시오. |
|
Spark 사용 | 데이터 로드 지원 없음 | ||
Python | Anaconda Python 배포 | pandasDataFrame에 데이터 로드 | |
Spark 사용 | pandasDataFrame에 데이터 로드 | ||
R | Anaconda R 배포 | 데이터 로드 지원 없음 | |
Spark 사용 | 데이터 로드 지원 없음 | ||
- Amazon RDS for MySQL |
|||
Python | Anaconda Python 배포 | pandasDataFrame에 데이터 로드 | |
Spark 사용 | pandasDataFrame에 데이터 로드 | ||
R | Anaconda R 배포 | R 데이터 프레임 및 sparkSessionDataFrame에 데이터 로드 | |
Spark 사용 | 데이터 로드 지원 없음 | ||
- HTTP - Apache Cassandra - Amazon RDS for PostgreSQL |
|||
Python | Anaconda Python 배포 | pandasDataFrame에 데이터 로드 | |
Spark 사용 | pandasDataFrame에 데이터 로드 | ||
R | Anaconda R 배포 | R 데이터 프레임에 데이터 로드 | |
Spark 사용 | R 데이터 프레임에 데이터 로드 |
상위 주제: 노트북의 데이터 로드 및 액세스