0 / 0
Go back to the English version of the documentation
通过生成的代码片段装入数据
Last updated: 2024年10月07日
通过生成的代码片段装入数据

您可以添加自动生成的代码,以将数据从项目数据资产装入到 Notebook 单元。 资产类型可以是文件或数据库连接。

通过单击 Notebook 中的空代码单元格,单击 Notebook 工具栏中的 代码片段 图标 ("代码片段" 图标) ,选择 读取数据 和项目中的资产,可以执行以下操作:

  • 插入数据源访问凭证。 此功能可用于添加到项目的所有数据资产。 通过凭证,您可以编写自己的代码来访问资产并将数据装入到您选择的数据结构中。

  • 生成要添加到 Notebook 单元格的代码。 插入的代码可以让您轻松快捷地开始使用数据集或连接。 对于生产系统,您应该仔细审查插入的代码,以确定是否应该编写自己的代码以更好地满足自身的需求。

    运行该代码单元格时,就会访问该数据,并将其装入到选定的数据结构中。

    备注

    1. 在下列情况下,将对某些连接禁用提供生成的代码的功能:
      • 连接凭证是个人凭证
      • 连接使用安全网关链路
      • 连接凭证存储在保险库文件中
    2. 如果您正在使用的文件类型或数据库连接未显示在以下列表中,那么可以选择创建通用代码。 对于 Python,这是 StreamingBody 对象;对于 R,这是 textConnection 对象。

下表显示了哪些数据源连接 (文件类型和数据库连接) 支持生成代码的选项。 生成代码的选项因数据源,笔记本编码语言和笔记本运行时计算而异。

受支持的文件类型

表 1. 支持的文件类型
数据源 Notebook 编码语言 计算引擎类型 提供的装入数据支持
CSV 文件
Python Anaconda Python 分发版 将数据装入到 pandasDataFrame 中
使用 Spark 将数据装入到 pandasDataFrame 和 sparkSessionDataFrame 中
使用 Hadoop 将数据装入到 pandasDataFrame 和 sparkSessionDataFrame 中
R Anaconda R 分发版 将数据装入到 R 数据框中
使用 Spark 将数据装入到 R 数据框和 sparkSessionDataFrame 中
使用 Hadoop 将数据装入到 R 数据框和 sparkSessionDataFrame 中
Python 脚本
Python Anaconda Python 分发版 将数据加载到 pandasStreamingBody 中
使用 Spark 将数据加载到 pandasStreamingBody 中
使用 Hadoop 将数据加载到 pandasStreamingBody 中
R Anaconda R 分发版 将数据加载到 rRawObject 中
使用 Spark 将数据加载到 rRawObject 中
使用 Hadoop 将数据加载到 rRawObject 中
JSON 文件
Python Anaconda Python 分发版 将数据装入到 pandasDataFrame 中
使用 Spark 将数据装入到 pandasDataFrame 和 sparkSessionDataFrame 中
使用 Hadoop 将数据装入到 pandasDataFrame 和 sparkSessionDataFrame 中
R Anaconda R 分发版 将数据装入到 R 数据框中
使用 Spark 将数据加载到 R 数据帧、rRawObject 和 sparkSessionDataFrame 中
使用 Hadoop 将数据加载到 R 数据帧、rRawObject 和 sparkSessionDataFrame 中
.xlsx 和 .xls 文件
Python Anaconda Python 分发版 将数据装入到 pandasDataFrame 中
使用 Spark 将数据装入到 pandasDataFrame 中
使用 Hadoop 将数据装入到 pandasDataFrame 中
R Anaconda R 分发版 将数据加载到 rRawObject 中
使用 Spark 无数据装入支持
使用 Hadoop 无数据装入支持
Octet-stream 文件类型
Python Anaconda Python 分发版 将数据加载到 pandasStreamingBody 中
使用 Spark 将数据加载到 pandasStreamingBody 中
R Anaconda R 分发版 将数据加载到 rRawObject 中
使用 Spark 将数据装入到 rDataObject 中
PDF 文件类型
Python Anaconda Python 分发版 将数据加载到 pandasStreamingBody 中
使用 Spark 将数据加载到 pandasStreamingBody 中
使用 Hadoop 将数据加载到 pandasStreamingBody 中
R Anaconda R 分发版 将数据加载到 rRawObject 中
使用 Spark 将数据装入到 rDataObject 中
使用 Hadoop 将数据加载到 rRawData 中
ZIP 文件类型
Python Anaconda Python 分发版 将数据加载到 pandasStreamingBody 中
使用 Spark 将数据加载到 pandasStreamingBody 中
R Anaconda R 分发版 将数据加载到 rRawObject 中
使用 Spark 将数据装入到 rDataObject 中
JPEG 或 PNG 图像文件
Python Anaconda Python 分发版 将数据加载到 pandasStreamingBody 中
使用 Spark 将数据加载到 pandasStreamingBody 中
使用 Hadoop 将数据加载到 pandasStreamingBody 中
R Anaconda R 分发版 将数据加载到 rRawObject 中
使用 Spark 将数据装入到 rDataObject 中
使用 Hadoop 将数据装入到 rDataObject 中
二进制文件
Python Anaconda Python 分发版 将数据加载到 pandasStreamingBody 中
使用 Spark 将数据加载到 pandasStreamingBody 中
Hadoop 无数据装入支持
R Anaconda R 分发版 将数据加载到 rRawObject 中
使用 Spark 将数据加载到 rRawObject 中
Hadoop 将数据装入到 rDataObject 中

受支持的数据库连接

表 2. 受支持的数据库连接
数据源 Notebook 编码语言 计算引擎类型 提供的装入数据支持
- Db2 Warehouse on Cloud
- IBM Db2 on Cloud
- IBM Db2 数据库
Python Anaconda Python 分发版 将数据加载到 ibmdbpyIda 和 ibmdbpyPandas 中
使用 Spark 将数据加载到 ibmdbpyIda、ibmdbpyPandas 和 sparkSessionDataFrame 中
使用 Hadoop 将数据加载到 ibmdbpyIda、ibmdbpyPandas 和 sparkSessionDataFrame 中
R Anaconda R 分发版 将数据加载到 ibmdbrIda 和 ibmdbrDataframe 中
使用 Spark 将数据加载到 ibmdbrIda、ibmdbrDataFrame 和 sparkSessionDataFrame 中
使用 Hadoop 将数据加载到 ibmdbrIda、ibmdbrDataFrame 和 sparkSessionDataFrame 中
- Db2 for z/OS
Python Anaconda Python 分发版 将数据加载到 ibmdbpyIda 和 ibmdbpyPandas 中
使用 Spark 无数据装入支持
- Amazon Simple Storage Services (S3)
- 具有 IAM 访问策略的 Amazon Simple Storage Services (S3)
Python Anaconda Python 分发版 将数据加载到 pandasStreamingBody 中
使用 Hadoop 将数据装入到 pandasStreamingBody 和 sparkSessionSetup 中
R Anaconda R 分发版 将数据加载到 rRawObject 中
使用 Hadoop 将数据加载到 rRawObject 和 sparkSessionSetup 中
- IBM Cloud Databases for PostgreSQL
- Microsoft SQL Server
Python Anaconda Python 分发版 将数据装入到 pandasDataFrame 中
使用 Spark 将数据装入到 pandasDataFrame 中
R Anaconda R 分发版 将数据装入到 R 数据框中
使用 Spark 将数据装入到 R 数据框和 sparkSessionDataFrame 中
Python Anaconda Python 分发版 Load data into pandasDataFrame

In the generated code:
- Edit the path parameter in the last line of code
- Remove the comment tagging

To read data, see 从数据源读取数据
To search data, see 搜索数据对象
To write data, see 将数据写入数据源
使用 Spark 无数据装入支持
R Anaconda R 分发版 将数据装入 R 数据帧

在生成的代码中:
-编辑最后一行代码中的路径参数
-除去注释标记

以读取数据, 请参阅 从数据源读取数据
要搜索数据,请参阅 搜索数据对象
要写入数据,请参阅 将数据写入数据源
使用 Spark 无数据装入支持
Python Anaconda Python 分发版 将数据装入到 pandasDataFrame 中
使用 Spark 将数据装入到 pandasDataFrame 中
R Anaconda R 分发版 无数据装入支持
使用 Spark 无数据装入支持
- Amazon RDS for MySQL
Python Anaconda Python 分发版 将数据装入到 pandasDataFrame 中
使用 Spark 将数据装入到 pandasDataFrame 中
R Anaconda R 分发版 将数据装入到 R 数据框和 sparkSessionDataFrame 中
使用 Spark 无数据装入支持
- HTTP
- Apache Cassandra
- Amazon RDS for PostgreSQL
Python Anaconda Python 分发版 将数据装入到 pandasDataFrame 中
使用 Spark 将数据装入到 pandasDataFrame 中
R Anaconda R 分发版 将数据装入到 R 数据框中
使用 Spark 将数据装入到 R 数据框中

父主题: 在 Notebook 中装入和访问数据

Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more