0 / 0
Zurück zur englischen Version der Dokumentation
Daten über generierte Code-Snippets laden
Letzte Aktualisierung: 07. Okt. 2024
Daten über generierte Code-Snippets laden

Sie können automatisch generierten Code hinzufügen, um Daten aus Projektdatenassets in eine Notebookzelle zu laden. Der Assettyp kann eine Datei oder eine Datenbankverbindung sein.

Wenn Sie in Ihrem Notebook auf eine leere Codezelle klicken, auf das Symbol Code-Snippets (Symbol für Code-Snippets) in der Symbolleiste des Notebooks klicken und Daten lesen und ein Asset aus dem Projekt auswählen, haben Sie folgende Möglichkeiten:

  • Sie können die Zugriffsberechtigungsnachweise für die Datenquelle einfügen. Diese Möglichkeit ist für alle Datenassets verfügbar, die einem Projekt hinzugefügt werden. Mit den Berechtigungsnachweisen können Sie eigenen Code schreiben, um auf das Asset zuzugreifen und die Daten in Datenstrukturen Ihrer Wahl zu laden.

  • Sie können Code generieren, der der Notebook-Zelle hinzugefügt wird. Der eingefügte Code dient für einen Schnellstart, sodass Sie Ihre Arbeit ohne großen Aufwand mit einem Dataset oder einer Verbindung beginnen können. Für Produktionssysteme sollten Sie den eingefügten Code sorgfältig prüfen. Stellen Sie fest, ob Sie ggf. eigenen Code schreiben sollten, der Ihren Anforderungen besser entspricht.

    Wenn Sie die Codezelle ausführen, wird auf die Daten zugegriffen und in die ausgewählte Datenstruktur geladen.

    Anmerkungen:

    1. Die Möglichkeit, generierten Code bereitzustellen, ist für einige Verbindungen inaktiviert, wenn:
      • Für die Verbindung werden persönliche Berechtigungsnachweise verwendet
      • Die Verbindung verwendet einen Secure Gateway-Link
      • Die Verbindungsberechtigungsnachweise werden in Vaults gespeichert.
    2. Wenn der von Ihnen verwendete Dateityp oder die Datenbankverbindung nicht in den folgenden Listen angezeigt wird, können Sie auswählen, dass generischer Code erstellt werden soll. Für Python ist dies ein StreamingBody-Objekt und für R ein textConnection-Objekt.

In folgenden Tabellen ist aufgeführt, welche Datenquellenverbindungen (Dateitypen und Datenbankverbindungen) die Option zum Generieren von Code unterstützen. Die Optionen zum Generieren von Code variieren je nach Datenquelle, Notebookcodierungssprache und Notebooklaufzeitberechnung.

Unterstützte Dateitypen

Tabelle 1. Unterstützte Dateitypen
Datenquelle Notebook-Codesprache Typ der Berechnungsengine Verfügbare Unterstützung zum Laden von Daten
CSV-Dateien
Python Anaconda Python-Verteilung Daten in pandasDataFrame laden
Mit Spark Daten in pandasDataFrame und sparkSessionDataFrame laden
Mit Hadoop Daten in pandasDataFrame und sparkSessionDataFrame laden
R Anaconda R-Verteilung Daten in R-Datenrahmen laden
Mit Spark Daten in R-Datenrahmen und sparkSessionDataFrame laden
Mit Hadoop Daten in R-Datenrahmen und sparkSessionDataFrame laden
Python-Script
Python Anaconda Python-Verteilung Daten in pandasStreamingBody laden
Mit Spark Daten in pandasStreamingBody laden
Mit Hadoop Daten in pandasStreamingBody laden
R Anaconda R-Verteilung Daten in rRawObject laden
Mit Spark Daten in rRawObject laden
Mit Hadoop Daten in rRawObject laden
JSON-Dateien
Python Anaconda Python-Verteilung Daten in pandasDataFrame laden
Mit Spark Daten in pandasDataFrame und sparkSessionDataFrame laden
Mit Hadoop Daten in pandasDataFrame und sparkSessionDataFrame laden
R Anaconda R-Verteilung Daten in R-Datenrahmen laden
Mit Spark Daten in R-Datenrahmen, rRawObject und sparkSessionDataFrame laden 
Mit Hadoop Daten in R-Datenrahmen, rRawObject und sparkSessionDataFrame laden 
.xlsx- und .xls-Dateien
Python Anaconda Python-Verteilung Daten in pandasDataFrame laden
Mit Spark Daten in pandasDataFrame laden
Mit Hadoop Daten in pandasDataFrame laden
R Anaconda R-Verteilung Daten in rRawObject laden
Mit Spark Keine Unterstützung von Datenladevorgängen
Mit Hadoop Keine Unterstützung von Datenladevorgängen
Octet-Stream-Dateitypen
Python Anaconda Python-Verteilung Daten in pandasStreamingBody laden
Mit Spark Daten in pandasStreamingBody laden
R Anaconda R-Verteilung Daten in rRawObject laden
Mit Spark Daten in rDataObject laden
PDF-Dateityp
Python Anaconda Python-Verteilung Daten in pandasStreamingBody laden
Mit Spark Daten in pandasStreamingBody laden
Mit Hadoop Daten in pandasStreamingBody laden
R Anaconda R-Verteilung Daten in rRawObject laden
Mit Spark Daten in rDataObject laden
Mit Hadoop Daten in rRawData laden
ZIP-Dateityp
Python Anaconda Python-Verteilung Daten in pandasStreamingBody laden
Mit Spark Daten in pandasStreamingBody laden
R Anaconda R-Verteilung Daten in rRawObject laden
Mit Spark Daten in rDataObject laden
JPEG-, PNG-Bilddateien
Python Anaconda Python-Verteilung Daten in pandasStreamingBody laden
Mit Spark Daten in pandasStreamingBody laden
Mit Hadoop Daten in pandasStreamingBody laden
R Anaconda R-Verteilung Daten in rRawObject laden
Mit Spark Daten in rDataObject laden
Mit Hadoop Daten in rDataObject laden
Binärdateien
Python Anaconda Python-Verteilung Daten in pandasStreamingBody laden
Mit Spark Daten in pandasStreamingBody laden
Hadoop Keine Unterstützung von Datenladevorgängen
R Anaconda R-Verteilung Daten in rRawObject laden
Mit Spark Daten in rRawObject laden
Hadoop Daten in rDataObject laden

Unterstützte Datenbankverbindungen

Tabelle 2. Unterstützte Datenbankverbindungen
Datenquelle Notebook-Codesprache Typ der Berechnungsengine Verfügbare Unterstützung zum Laden von Daten
- Db2 Warehouse on Cloud
- IBM Db2 on Cloud
- IBM Db2-Datenbank
Python Anaconda Python-Verteilung Daten in ibmdbpyIda und ibmdbpyPandas laden
Mit Spark Daten in ibmdbpyIda, ibmdbpyPandas und sparkSessionDataFrame laden 
Mit Hadoop Daten in ibmdbpyIda, ibmdbpyPandas und sparkSessionDataFrame laden 
R Anaconda R-Verteilung Daten in ibmdbrIda und ibmdbrDataframe laden
Mit Spark Daten in ibmdbrIda, ibmdbrDataFrame und sparkSessionDataFrame laden 
Mit Hadoop Daten in ibmdbrIda, ibmdbrDataFrame und sparkSessionDataFrame laden 
- Db2 for z/OS
Python Anaconda Python-Verteilung Daten in ibmdbpyIda und ibmdbpyPandas laden
Mit Spark Keine Unterstützung von Datenladevorgängen
- Amazon Simple Storage Services (S3)
- Amazon Simple Storage Services (S3) mit IAM-Zugriffsrichtlinie
Python Anaconda Python-Verteilung Daten in pandasStreamingBody laden
Mit Hadoop Daten in pandasStreamingBody und sparkSessionSetup laden
R Anaconda R-Verteilung Daten in rRawObject laden
Mit Hadoop Daten in rRawObject und sparkSessionSetup laden
- IBM Cloud Databases for PostgreSQL
- Microsoft SQL Server
Python Anaconda Python-Verteilung Daten in pandasDataFrame laden
Mit Spark Daten in pandasDataFrame laden
R Anaconda R-Verteilung Daten in R-Datenrahmen laden
Mit Spark Daten in R-Datenrahmen und sparkSessionDataFrame laden
Python Anaconda Python-Verteilung Load data into pandasDataFrame

In the generated code:
- Edit the path parameter in the last line of code
- Remove the comment tagging

To read data, see Lesen von Daten aus einer Datenquelle
To search data, see Suche nach Datenobjekten
To write data, see Schreiben von Daten in eine Datenquelle
Mit Spark Keine Unterstützung von Datenladevorgängen
R Anaconda R-Verteilung Daten in R-Datenrahmen laden

Im generierten Code:
-Bearbeiten Sie den Pfadparameter in der letzten Codezeile
-Entfernen Sie das Kommentartagging

Zum Lesen von Daten Weitere Informationen finden Sie unter Daten aus einer Datenquelle lesen
Informationen zum Durchsuchen von Daten finden Sie unter Suchen nach Datenobjekten
Informationen zum Schreiben von Daten finden Sie unter Daten in eine Datenquelle schreiben .
Mit Spark Keine Unterstützung von Datenladevorgängen
Python Anaconda Python-Verteilung Daten in pandasDataFrame laden
Mit Spark Daten in pandasDataFrame laden
R Anaconda R-Verteilung Keine Unterstützung von Datenladevorgängen
Mit Spark Keine Unterstützung von Datenladevorgängen
- Amazon RDS for MySQL
Python Anaconda Python-Verteilung Daten in pandasDataFrame laden
Mit Spark Daten in pandasDataFrame laden
R Anaconda R-Verteilung Daten in R-Datenrahmen und sparkSessionDataFrame laden
Mit Spark Keine Unterstützung von Datenladevorgängen
- HTTP-
- Apache Cassandra
- Amazon RDS for PostgreSQL
Python Anaconda Python-Verteilung Daten in pandasDataFrame laden
Mit Spark Daten in pandasDataFrame laden
R Anaconda R-Verteilung Daten in R-Datenrahmen laden
Mit Spark Daten in R-Datenrahmen laden

Übergeordnetes Thema: Daten in ein Notebook laden und darauf zugreifen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen