0 / 0
Torna alla versione inglese della documentazione
Caricamento dei dati tramite frammenti di codice generati
Ultimo aggiornamento: 07 ott 2024
Caricamento dei dati tramite frammenti di codice generati

È possibile aggiungere automaticamente il codice generato per caricare i dati dagli asset di dati del progetto a una cella del notebook. Il tipo di asset può essere un file o una connessione al database.

Facendo clic in una cella di codice vuota nel notebook, facendo clic sull'icona Frammenti di codice (l'icona dei frammenti di codice) dalla barra degli strumenti del notebook, selezionando Leggi dati e un asset dal progetto, è possibile:

  • Inserire le credenziali di accesso dell'origine dati. Questa capacità è disponibile per tutti gli asset di dati aggiunti a un progetto. Con le credenziali, è possibile scrivere il codice per accedere all'asset e caricare i dati in strutture dati di propria scelta.

  • Generare il codice che viene aggiunto alla cella del notebook. Il codice inserito funge da avvio rapido per consentire di iniziare facilmente a lavorare con un dataset o una connessione. Per i sistemi di produzione, è necessario esaminare attentamente il codice inserito per determinare se è necessario scrivere il proprio codice che meglio soddisfa le proprie esigenze.

    Quando si esegue la cella di codice, si accede ai dati e li si carica nella struttura dati selezionata.

    Note:

    1. La capacità di fornire il codice generato è disabilitata per alcune connessioni se:
      • Le credenziali di collegamento sono credenziali personali
      • La connessione utilizza un collegamento gateway sicuro
      • Le credenziali di connessione sono memorizzate nei vault
    2. Se il tipo di file o la connessione al database che si sta utilizzando non viene visualizzato nei seguenti elenchi, è possibile scegliere di creare un codice generico. Per Python questo è un oggetto StreamingBody e per R un oggetto textConnection .

Le seguenti tabelle mostrano quali connessioni origine dati (tipi di file e connessioni al database) supportano l'opzione per generare codice. Le opzioni per la creazione del codice variano a seconda dell'origine dati, del linguaggio di codifica del notebook e del calcolo di runtime del notebook.

Tipi di file supportati

Tabella 1. Tipi di file supportati
Origine dati Linguaggio di codifica notebook Tipo di motore di elaborazione Supporto disponibile per il caricamento dei dati
File CSV
Python Distribuzione Anaconda Python Caricare i dati in pandasDataFrame
con Spark Caricamento dei dati in pandasDataFrame e sparkSessionDataFrame
Con Hadoop Caricamento dei dati in pandasDataFrame e sparkSessionDataFrame
R Distribuzione di Anaconda R Carica dati nel frame di dati R
con Spark Caricare i dati in un frame di dati R e in sparkSessionDataFrame
Con Hadoop Caricare i dati in un frame di dati R e in sparkSessionDataFrame
Script Python
Python Distribuzione Anaconda Python Caricare i dati in pandasStreamingBody
con Spark Caricare i dati in pandasStreamingBody
Con Hadoop Caricare i dati in pandasStreamingBody
R Distribuzione di Anaconda R Caricare i dati in rRawObject
con Spark Caricare i dati in rRawObject
Con Hadoop Caricare i dati in rRawObject
file JSON
Python Distribuzione Anaconda Python Caricare i dati in pandasDataFrame
con Spark Caricamento dei dati in pandasDataFrame e sparkSessionDataFrame
Con Hadoop Caricamento dei dati in pandasDataFrame e sparkSessionDataFrame
R Distribuzione di Anaconda R Carica dati nel frame di dati R
con Spark Caricare i dati in frame di dati R, rRawObject e sparkSessionDataFrame
Con Hadoop Caricare i dati in frame di dati R, rRawObject e sparkSessionDataFrame
File .xlsx e .xls
Python Distribuzione Anaconda Python Caricare i dati in pandasDataFrame
con Spark Caricare i dati in pandasDataFrame
Con Hadoop Caricare i dati in pandasDataFrame
R Distribuzione di Anaconda R Caricare i dati in rRawObject
con Spark Nessun supporto di caricamento dati
Con Hadoop Nessun supporto di caricamento dati
Tipi di file di flusso ottetto
Python Distribuzione Anaconda Python Caricare i dati in pandasStreamingBody
con Spark Caricare i dati in pandasStreamingBody
R Distribuzione di Anaconda R Caricare i dati in rRawObject
con Spark Caricare i dati in rDataObject
Tipo di file PDF
Python Distribuzione Anaconda Python Caricare i dati in pandasStreamingBody
con Spark Caricare i dati in pandasStreamingBody
Con Hadoop Caricare i dati in pandasStreamingBody
R Distribuzione di Anaconda R Caricare i dati in rRawObject
con Spark Caricare i dati in rDataObject
Con Hadoop Caricare i dati in rRawData
Tipo di file ZIP
Python Distribuzione Anaconda Python Caricare i dati in pandasStreamingBody
con Spark Caricare i dati in pandasStreamingBody
R Distribuzione di Anaconda R Caricare i dati in rRawObject
con Spark Caricare i dati in rDataObject
File immagine JPEG, PNG
Python Distribuzione Anaconda Python Caricare i dati in pandasStreamingBody
con Spark Caricare i dati in pandasStreamingBody
Con Hadoop Caricare i dati in pandasStreamingBody
R Distribuzione di Anaconda R Caricare i dati in rRawObject
con Spark Caricare i dati in rDataObject
Con Hadoop Caricare i dati in rDataObject
File binari
Python Distribuzione Anaconda Python Caricare i dati in pandasStreamingBody
con Spark Caricare i dati in pandasStreamingBody
Hadoop Nessun supporto di caricamento dati
R Distribuzione di Anaconda R Caricare i dati in rRawObject
con Spark Caricare i dati in rRawObject
Hadoop Caricare i dati in rDataObject

Connessioni database supportate

Tabella 2. Connessioni database supportate
Origine dati Linguaggio di codifica notebook Tipo di motore di elaborazione Supporto disponibile per il caricamento dei dati
- Db2 Warehouse on Cloud
- IBM Db2 on Cloud
- IBM Db2
Python Distribuzione Anaconda Python Caricare i dati in ibmdbpyIda e ibmdbpyPandas
con Spark Caricare i dati in ibmdbpyIda, ibmdbpyPandas e sparkSessionDataFrame
Con Hadoop Caricare i dati in ibmdbpyIda, ibmdbpyPandas e sparkSessionDataFrame
R Distribuzione di Anaconda R Caricare i dati in ibmdbrIda e ibmdbrDataframe
con Spark Caricamento dei dati in ibmdbrIda, ibmdbrDataFrame e sparkSessionDataFrame
Con Hadoop Caricamento dei dati in ibmdbrIda, ibmdbrDataFrame e sparkSessionDataFrame
- Db2 for z/OS
Python Distribuzione Anaconda Python Caricare i dati in ibmdbpyIda e ibmdbpyPandas
con Spark Nessun supporto di caricamento dati
- Amazon Simple Storage Services (S3)
- Amazon Simple Storage Services (S3) con un criterio di accesso IAM
Python Distribuzione Anaconda Python Caricare i dati in pandasStreamingBody
Con Hadoop Caricare i dati in pandasStreamingBody e sparkSessionSetup
R Distribuzione Anaconda R Caricare i dati in rRawObject
Con Hadoop Caricare i dati in rRawObject e sparkSessionSetup
- IBM Cloud Databases for PostgreSQL
- Microsoft SQL Server
Python Distribuzione Anaconda Python Caricare i dati in pandasDataFrame
con Spark Caricare i dati in pandasDataFrame
R Distribuzione di Anaconda R Carica dati nel frame di dati R
con Spark Caricare i dati in un frame di dati R e in sparkSessionDataFrame
Python Distribuzione Anaconda Python Load data into pandasDataFrame

In the generated code:
- Edit the path parameter in the last line of code
- Remove the comment tagging

To read data, see Lettura dei dati da un'origine dati
To search data, see Ricerca di oggetti di dati
To write data, see Scrivere i dati in un'origine dati
con Spark Nessun supporto di caricamento dati
R Distribuzione di Anaconda R Carica dati nel frame di dati R

Nel codice generato:
- Modificare il parametro del percorso nell'ultima riga di codice
- Rimuovere i tag di commento

Per leggere i dati, consultare Lettura dei dati da una origine dati
Per ricercare dati, consultare Ricerca di oggetti dati
Per scrivere dati, consultare Scrittura di dati in una origine dati
con Spark Nessun supporto di caricamento dati
Python Distribuzione Anaconda Python Caricare i dati in pandasDataFrame
con Spark Caricare i dati in pandasDataFrame
R Distribuzione di Anaconda R Nessun supporto di caricamento dati
con Spark Nessun supporto di caricamento dati
- Amazon RDS for MySQL
Python Distribuzione Anaconda Python Caricare i dati in pandasDataFrame
con Spark Caricare i dati in pandasDataFrame
R Distribuzione di Anaconda R Caricare i dati in un frame di dati R e in sparkSessionDataFrame
con Spark Nessun supporto di caricamento dati
- HTTP
- Apache Cassandra
- Amazon RDS for PostgreSQL
Python Distribuzione Anaconda Python Caricare i dati in pandasDataFrame
con Spark Caricare i dati in pandasDataFrame
R Distribuzione di Anaconda R Carica dati nel frame di dati R
con Spark Carica dati nel frame di dati R

Argomento principale: Caricamento e accesso ai dati in un blocco note

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni