Sie können automatisch generierten Code hinzufügen, um Daten aus Projektdatenassets in eine Notebookzelle zu laden. Der Assettyp kann eine Datei oder eine Datenbankverbindung sein.
Wenn Sie in Ihrem Notebook auf eine leere Codezelle klicken, auf das Symbol Code-Snippets () in der Symbolleiste des Notebooks klicken und Daten lesen und ein Asset aus dem Projekt auswählen, haben Sie folgende Möglichkeiten:
Sie können die Zugriffsberechtigungsnachweise für die Datenquelle einfügen. Diese Möglichkeit ist für alle Datenassets verfügbar, die einem Projekt hinzugefügt werden. Mit den Berechtigungsnachweisen können Sie eigenen Code schreiben, um auf das Asset zuzugreifen und die Daten in Datenstrukturen Ihrer Wahl zu laden.
Sie können Code generieren, der der Notebook-Zelle hinzugefügt wird. Der eingefügte Code dient für einen Schnellstart, sodass Sie Ihre Arbeit ohne großen Aufwand mit einem Dataset oder einer Verbindung beginnen können. Für Produktionssysteme sollten Sie den eingefügten Code sorgfältig prüfen. Stellen Sie fest, ob Sie ggf. eigenen Code schreiben sollten, der Ihren Anforderungen besser entspricht.
Wenn Sie die Codezelle ausführen, wird auf die Daten zugegriffen und in die ausgewählte Datenstruktur geladen.
Anmerkungen:
- Die Möglichkeit, generierten Code bereitzustellen, ist für einige Verbindungen inaktiviert, wenn:
- Für die Verbindung werden persönliche Berechtigungsnachweise verwendet
- Die Verbindung verwendet einen Secure Gateway-Link
- Die Verbindungsberechtigungsnachweise werden in Vaults gespeichert.
- Wenn der von Ihnen verwendete Dateityp oder die Datenbankverbindung nicht in den folgenden Listen angezeigt wird, können Sie auswählen, dass generischer Code erstellt werden soll. Für Python ist dies ein StreamingBody-Objekt und für R ein textConnection-Objekt.
- Die Möglichkeit, generierten Code bereitzustellen, ist für einige Verbindungen inaktiviert, wenn:
In folgenden Tabellen ist aufgeführt, welche Datenquellenverbindungen (Dateitypen und Datenbankverbindungen) die Option zum Generieren von Code unterstützen. Die Optionen zum Generieren von Code variieren je nach Datenquelle, Notebookcodierungssprache und Notebooklaufzeitberechnung.
Unterstützte Dateitypen
Datenquelle | Notebook-Codesprache | Typ der Berechnungsengine | Verfügbare Unterstützung zum Laden von Daten |
---|---|---|---|
CSV-Dateien | |||
Python | Anaconda Python-Verteilung | Daten in pandasDataFrame laden | |
Mit Spark | Daten in pandasDataFrame und sparkSessionDataFrame laden | ||
Mit Hadoop | Daten in pandasDataFrame und sparkSessionDataFrame laden | ||
R | Anaconda R-Verteilung | Daten in R-Datenrahmen laden | |
Mit Spark | Daten in R-Datenrahmen und sparkSessionDataFrame laden | ||
Mit Hadoop | Daten in R-Datenrahmen und sparkSessionDataFrame laden | ||
Python-Script | |||
Python | Anaconda Python-Verteilung | Daten in pandasStreamingBody laden | |
Mit Spark | Daten in pandasStreamingBody laden | ||
Mit Hadoop | Daten in pandasStreamingBody laden | ||
R | Anaconda R-Verteilung | Daten in rRawObject laden | |
Mit Spark | Daten in rRawObject laden | ||
Mit Hadoop | Daten in rRawObject laden | ||
JSON-Dateien | |||
Python | Anaconda Python-Verteilung | Daten in pandasDataFrame laden | |
Mit Spark | Daten in pandasDataFrame und sparkSessionDataFrame laden | ||
Mit Hadoop | Daten in pandasDataFrame und sparkSessionDataFrame laden | ||
R | Anaconda R-Verteilung | Daten in R-Datenrahmen laden | |
Mit Spark | Daten in R-Datenrahmen, rRawObject und sparkSessionDataFrame laden | ||
Mit Hadoop | Daten in R-Datenrahmen, rRawObject und sparkSessionDataFrame laden | ||
.xlsx- und .xls-Dateien | |||
Python | Anaconda Python-Verteilung | Daten in pandasDataFrame laden | |
Mit Spark | Daten in pandasDataFrame laden | ||
Mit Hadoop | Daten in pandasDataFrame laden | ||
R | Anaconda R-Verteilung | Daten in rRawObject laden | |
Mit Spark | Keine Unterstützung von Datenladevorgängen | ||
Mit Hadoop | Keine Unterstützung von Datenladevorgängen | ||
Octet-Stream-Dateitypen | |||
Python | Anaconda Python-Verteilung | Daten in pandasStreamingBody laden | |
Mit Spark | Daten in pandasStreamingBody laden | ||
R | Anaconda R-Verteilung | Daten in rRawObject laden | |
Mit Spark | Daten in rDataObject laden | ||
PDF-Dateityp | |||
Python | Anaconda Python-Verteilung | Daten in pandasStreamingBody laden | |
Mit Spark | Daten in pandasStreamingBody laden | ||
Mit Hadoop | Daten in pandasStreamingBody laden | ||
R | Anaconda R-Verteilung | Daten in rRawObject laden | |
Mit Spark | Daten in rDataObject laden | ||
Mit Hadoop | Daten in rRawData laden | ||
ZIP-Dateityp | |||
Python | Anaconda Python-Verteilung | Daten in pandasStreamingBody laden | |
Mit Spark | Daten in pandasStreamingBody laden | ||
R | Anaconda R-Verteilung | Daten in rRawObject laden | |
Mit Spark | Daten in rDataObject laden | ||
JPEG-, PNG-Bilddateien | |||
Python | Anaconda Python-Verteilung | Daten in pandasStreamingBody laden | |
Mit Spark | Daten in pandasStreamingBody laden | ||
Mit Hadoop | Daten in pandasStreamingBody laden | ||
R | Anaconda R-Verteilung | Daten in rRawObject laden | |
Mit Spark | Daten in rDataObject laden | ||
Mit Hadoop | Daten in rDataObject laden | ||
Binärdateien | |||
Python | Anaconda Python-Verteilung | Daten in pandasStreamingBody laden | |
Mit Spark | Daten in pandasStreamingBody laden | ||
Hadoop | Keine Unterstützung von Datenladevorgängen | ||
R | Anaconda R-Verteilung | Daten in rRawObject laden | |
Mit Spark | Daten in rRawObject laden | ||
Hadoop | Daten in rDataObject laden |
Unterstützte Datenbankverbindungen
Datenquelle | Notebook-Codesprache | Typ der Berechnungsengine | Verfügbare Unterstützung zum Laden von Daten |
---|---|---|---|
- Db2 Warehouse on Cloud - IBM Db2 on Cloud - IBM Db2-Datenbank |
|||
Python | Anaconda Python-Verteilung | Daten in ibmdbpyIda und ibmdbpyPandas laden | |
Mit Spark | Daten in ibmdbpyIda, ibmdbpyPandas und sparkSessionDataFrame laden | ||
Mit Hadoop | Daten in ibmdbpyIda, ibmdbpyPandas und sparkSessionDataFrame laden | ||
R | Anaconda R-Verteilung | Daten in ibmdbrIda und ibmdbrDataframe laden | |
Mit Spark | Daten in ibmdbrIda, ibmdbrDataFrame und sparkSessionDataFrame laden | ||
Mit Hadoop | Daten in ibmdbrIda, ibmdbrDataFrame und sparkSessionDataFrame laden | ||
- Db2 for z/OS |
|||
Python | Anaconda Python-Verteilung | Daten in ibmdbpyIda und ibmdbpyPandas laden | |
Mit Spark | Keine Unterstützung von Datenladevorgängen | ||
- Amazon Simple Storage Services (S3) - Amazon Simple Storage Services (S3) mit IAM-Zugriffsrichtlinie |
|||
Python | Anaconda Python-Verteilung | Daten in pandasStreamingBody laden | |
Mit Hadoop | Daten in pandasStreamingBody und sparkSessionSetup laden | ||
R | Anaconda R-Verteilung | Daten in rRawObject laden | |
Mit Hadoop | Daten in rRawObject und sparkSessionSetup laden | ||
- IBM Cloud Databases for PostgreSQL - Microsoft SQL Server |
|||
Python | Anaconda Python-Verteilung | Daten in pandasDataFrame laden | |
Mit Spark | Daten in pandasDataFrame laden | ||
R | Anaconda R-Verteilung | Daten in R-Datenrahmen laden | |
Mit Spark | Daten in R-Datenrahmen und sparkSessionDataFrame laden | ||
Python | Anaconda Python-Verteilung | Load data into pandasDataFrame In the generated code: - Edit the path parameter in the last line of code - Remove the comment tagging To read data, see Lesen von Daten aus einer Datenquelle To search data, see Suche nach Datenobjekten To write data, see Schreiben von Daten in eine Datenquelle |
|
Mit Spark | Keine Unterstützung von Datenladevorgängen | ||
R | Anaconda R-Verteilung | Daten in R-Datenrahmen laden Im generierten Code: -Bearbeiten Sie den Pfadparameter in der letzten Codezeile -Entfernen Sie das Kommentartagging Zum Lesen von Daten Weitere Informationen finden Sie unter Daten aus einer Datenquelle lesen Informationen zum Durchsuchen von Daten finden Sie unter Suchen nach Datenobjekten Informationen zum Schreiben von Daten finden Sie unter Daten in eine Datenquelle schreiben . |
|
Mit Spark | Keine Unterstützung von Datenladevorgängen | ||
Python | Anaconda Python-Verteilung | Daten in pandasDataFrame laden | |
Mit Spark | Daten in pandasDataFrame laden | ||
R | Anaconda R-Verteilung | Keine Unterstützung von Datenladevorgängen | |
Mit Spark | Keine Unterstützung von Datenladevorgängen | ||
- Amazon RDS for MySQL |
|||
Python | Anaconda Python-Verteilung | Daten in pandasDataFrame laden | |
Mit Spark | Daten in pandasDataFrame laden | ||
R | Anaconda R-Verteilung | Daten in R-Datenrahmen und sparkSessionDataFrame laden | |
Mit Spark | Keine Unterstützung von Datenladevorgängen | ||
- HTTP- - Apache Cassandra - Amazon RDS for PostgreSQL |
|||
Python | Anaconda Python-Verteilung | Daten in pandasDataFrame laden | |
Mit Spark | Daten in pandasDataFrame laden | ||
R | Anaconda R-Verteilung | Daten in R-Datenrahmen laden | |
Mit Spark | Daten in R-Datenrahmen laden |
Übergeordnetes Thema: Daten in ein Notebook laden und darauf zugreifen