Go back to the English version of the documentation通过生成的代码片段装入数据
通过生成的代码片段装入数据
Last updated: 2024年10月07日
您可以添加自动生成的代码,以将数据从项目数据资产装入到 Notebook 单元。 资产类型可以是文件或数据库连接。
通过单击 Notebook 中的空代码单元格,单击 Notebook 工具栏中的 代码片段 图标 () ,选择 读取数据 和项目中的资产,可以执行以下操作:
插入数据源访问凭证。 此功能可用于添加到项目的所有数据资产。 通过凭证,您可以编写自己的代码来访问资产并将数据装入到您选择的数据结构中。
生成要添加到 Notebook 单元格的代码。 插入的代码可以让您轻松快捷地开始使用数据集或连接。 对于生产系统,您应该仔细审查插入的代码,以确定是否应该编写自己的代码以更好地满足自身的需求。
运行该代码单元格时,就会访问该数据,并将其装入到选定的数据结构中。
备注:
- 在下列情况下,将对某些连接禁用提供生成的代码的功能:
- 连接凭证是个人凭证
- 连接使用安全网关链路
- 连接凭证存储在保险库文件中
- 如果您正在使用的文件类型或数据库连接未显示在以下列表中,那么可以选择创建通用代码。 对于 Python,这是 StreamingBody 对象;对于 R,这是 textConnection 对象。
- 在下列情况下,将对某些连接禁用提供生成的代码的功能:
下表显示了哪些数据源连接 (文件类型和数据库连接) 支持生成代码的选项。 生成代码的选项因数据源,笔记本编码语言和笔记本运行时计算而异。
受支持的文件类型
数据源 | Notebook 编码语言 | 计算引擎类型 | 提供的装入数据支持 |
---|---|---|---|
CSV 文件 | |||
Python | Anaconda Python 分发版 | 将数据装入到 pandasDataFrame 中 | |
使用 Spark | 将数据装入到 pandasDataFrame 和 sparkSessionDataFrame 中 | ||
使用 Hadoop | 将数据装入到 pandasDataFrame 和 sparkSessionDataFrame 中 | ||
R | Anaconda R 分发版 | 将数据装入到 R 数据框中 | |
使用 Spark | 将数据装入到 R 数据框和 sparkSessionDataFrame 中 | ||
使用 Hadoop | 将数据装入到 R 数据框和 sparkSessionDataFrame 中 | ||
Python 脚本 | |||
Python | Anaconda Python 分发版 | 将数据加载到 pandasStreamingBody 中 | |
使用 Spark | 将数据加载到 pandasStreamingBody 中 | ||
使用 Hadoop | 将数据加载到 pandasStreamingBody 中 | ||
R | Anaconda R 分发版 | 将数据加载到 rRawObject 中 | |
使用 Spark | 将数据加载到 rRawObject 中 | ||
使用 Hadoop | 将数据加载到 rRawObject 中 | ||
JSON 文件 | |||
Python | Anaconda Python 分发版 | 将数据装入到 pandasDataFrame 中 | |
使用 Spark | 将数据装入到 pandasDataFrame 和 sparkSessionDataFrame 中 | ||
使用 Hadoop | 将数据装入到 pandasDataFrame 和 sparkSessionDataFrame 中 | ||
R | Anaconda R 分发版 | 将数据装入到 R 数据框中 | |
使用 Spark | 将数据加载到 R 数据帧、rRawObject 和 sparkSessionDataFrame 中 | ||
使用 Hadoop | 将数据加载到 R 数据帧、rRawObject 和 sparkSessionDataFrame 中 | ||
.xlsx 和 .xls 文件 | |||
Python | Anaconda Python 分发版 | 将数据装入到 pandasDataFrame 中 | |
使用 Spark | 将数据装入到 pandasDataFrame 中 | ||
使用 Hadoop | 将数据装入到 pandasDataFrame 中 | ||
R | Anaconda R 分发版 | 将数据加载到 rRawObject 中 | |
使用 Spark | 无数据装入支持 | ||
使用 Hadoop | 无数据装入支持 | ||
Octet-stream 文件类型 | |||
Python | Anaconda Python 分发版 | 将数据加载到 pandasStreamingBody 中 | |
使用 Spark | 将数据加载到 pandasStreamingBody 中 | ||
R | Anaconda R 分发版 | 将数据加载到 rRawObject 中 | |
使用 Spark | 将数据装入到 rDataObject 中 | ||
PDF 文件类型 | |||
Python | Anaconda Python 分发版 | 将数据加载到 pandasStreamingBody 中 | |
使用 Spark | 将数据加载到 pandasStreamingBody 中 | ||
使用 Hadoop | 将数据加载到 pandasStreamingBody 中 | ||
R | Anaconda R 分发版 | 将数据加载到 rRawObject 中 | |
使用 Spark | 将数据装入到 rDataObject 中 | ||
使用 Hadoop | 将数据加载到 rRawData 中 | ||
ZIP 文件类型 | |||
Python | Anaconda Python 分发版 | 将数据加载到 pandasStreamingBody 中 | |
使用 Spark | 将数据加载到 pandasStreamingBody 中 | ||
R | Anaconda R 分发版 | 将数据加载到 rRawObject 中 | |
使用 Spark | 将数据装入到 rDataObject 中 | ||
JPEG 或 PNG 图像文件 | |||
Python | Anaconda Python 分发版 | 将数据加载到 pandasStreamingBody 中 | |
使用 Spark | 将数据加载到 pandasStreamingBody 中 | ||
使用 Hadoop | 将数据加载到 pandasStreamingBody 中 | ||
R | Anaconda R 分发版 | 将数据加载到 rRawObject 中 | |
使用 Spark | 将数据装入到 rDataObject 中 | ||
使用 Hadoop | 将数据装入到 rDataObject 中 | ||
二进制文件 | |||
Python | Anaconda Python 分发版 | 将数据加载到 pandasStreamingBody 中 | |
使用 Spark | 将数据加载到 pandasStreamingBody 中 | ||
Hadoop | 无数据装入支持 | ||
R | Anaconda R 分发版 | 将数据加载到 rRawObject 中 | |
使用 Spark | 将数据加载到 rRawObject 中 | ||
Hadoop | 将数据装入到 rDataObject 中 |
受支持的数据库连接
数据源 | Notebook 编码语言 | 计算引擎类型 | 提供的装入数据支持 |
---|---|---|---|
- Db2 Warehouse on Cloud - IBM Db2 on Cloud - IBM Db2 数据库 |
|||
Python | Anaconda Python 分发版 | 将数据加载到 ibmdbpyIda 和 ibmdbpyPandas 中 | |
使用 Spark | 将数据加载到 ibmdbpyIda、ibmdbpyPandas 和 sparkSessionDataFrame 中 | ||
使用 Hadoop | 将数据加载到 ibmdbpyIda、ibmdbpyPandas 和 sparkSessionDataFrame 中 | ||
R | Anaconda R 分发版 | 将数据加载到 ibmdbrIda 和 ibmdbrDataframe 中 | |
使用 Spark | 将数据加载到 ibmdbrIda、ibmdbrDataFrame 和 sparkSessionDataFrame 中 | ||
使用 Hadoop | 将数据加载到 ibmdbrIda、ibmdbrDataFrame 和 sparkSessionDataFrame 中 | ||
- Db2 for z/OS |
|||
Python | Anaconda Python 分发版 | 将数据加载到 ibmdbpyIda 和 ibmdbpyPandas 中 | |
使用 Spark | 无数据装入支持 | ||
- Amazon Simple Storage Services (S3) - 具有 IAM 访问策略的 Amazon Simple Storage Services (S3) |
|||
Python | Anaconda Python 分发版 | 将数据加载到 pandasStreamingBody 中 | |
使用 Hadoop | 将数据装入到 pandasStreamingBody 和 sparkSessionSetup 中 | ||
R | Anaconda R 分发版 | 将数据加载到 rRawObject 中 | |
使用 Hadoop | 将数据加载到 rRawObject 和 sparkSessionSetup 中 | ||
- IBM Cloud Databases for PostgreSQL - Microsoft SQL Server |
|||
Python | Anaconda Python 分发版 | 将数据装入到 pandasDataFrame 中 | |
使用 Spark | 将数据装入到 pandasDataFrame 中 | ||
R | Anaconda R 分发版 | 将数据装入到 R 数据框中 | |
使用 Spark | 将数据装入到 R 数据框和 sparkSessionDataFrame 中 | ||
Python | Anaconda Python 分发版 | Load data into pandasDataFrame In the generated code: - Edit the path parameter in the last line of code - Remove the comment tagging To read data, see 从数据源读取数据 To search data, see 搜索数据对象 To write data, see 将数据写入数据源 |
|
使用 Spark | 无数据装入支持 | ||
R | Anaconda R 分发版 | 将数据装入 R 数据帧 在生成的代码中: -编辑最后一行代码中的路径参数 -除去注释标记 以读取数据, 请参阅 从数据源读取数据 要搜索数据,请参阅 搜索数据对象 要写入数据,请参阅 将数据写入数据源 |
|
使用 Spark | 无数据装入支持 | ||
Python | Anaconda Python 分发版 | 将数据装入到 pandasDataFrame 中 | |
使用 Spark | 将数据装入到 pandasDataFrame 中 | ||
R | Anaconda R 分发版 | 无数据装入支持 | |
使用 Spark | 无数据装入支持 | ||
- Amazon RDS for MySQL |
|||
Python | Anaconda Python 分发版 | 将数据装入到 pandasDataFrame 中 | |
使用 Spark | 将数据装入到 pandasDataFrame 中 | ||
R | Anaconda R 分发版 | 将数据装入到 R 数据框和 sparkSessionDataFrame 中 | |
使用 Spark | 无数据装入支持 | ||
- HTTP - Apache Cassandra - Amazon RDS for PostgreSQL |
|||
Python | Anaconda Python 分发版 | 将数据装入到 pandasDataFrame 中 | |
使用 Spark | 将数据装入到 pandasDataFrame 中 | ||
R | Anaconda R 分发版 | 将数据装入到 R 数据框中 | |
使用 Spark | 将数据装入到 R 数据框中 |
父主题: 在 Notebook 中装入和访问数据