È possibile aggiungere automaticamente il codice generato per caricare i dati dagli asset di dati del progetto a una cella del notebook. Il tipo di asset può essere un file o una connessione al database.
Facendo clic in una cella di codice vuota nel notebook, facendo clic sull'icona Frammenti di codice () dalla barra degli strumenti del notebook, selezionando Leggi dati e un asset dal progetto, è possibile:
Inserire le credenziali di accesso dell'origine dati. Questa capacità è disponibile per tutti gli asset di dati aggiunti a un progetto. Con le credenziali, è possibile scrivere il codice per accedere all'asset e caricare i dati in strutture dati di propria scelta.
Generare il codice che viene aggiunto alla cella del notebook. Il codice inserito funge da avvio rapido per consentire di iniziare facilmente a lavorare con un dataset o una connessione. Per i sistemi di produzione, è necessario esaminare attentamente il codice inserito per determinare se è necessario scrivere il proprio codice che meglio soddisfa le proprie esigenze.
Quando si esegue la cella di codice, si accede ai dati e li si carica nella struttura dati selezionata.
Note:
- La capacità di fornire il codice generato è disabilitata per alcune connessioni se:
- Le credenziali di collegamento sono credenziali personali
- La connessione utilizza un collegamento gateway sicuro
- Le credenziali di connessione sono memorizzate nei vault
- Se il tipo di file o la connessione al database che si sta utilizzando non viene visualizzato nei seguenti elenchi, è possibile scegliere di creare un codice generico. Per Python questo è un oggetto StreamingBody e per R un oggetto textConnection .
- La capacità di fornire il codice generato è disabilitata per alcune connessioni se:
Le seguenti tabelle mostrano quali connessioni origine dati (tipi di file e connessioni al database) supportano l'opzione per generare codice. Le opzioni per la creazione del codice variano a seconda dell'origine dati, del linguaggio di codifica del notebook e del calcolo di runtime del notebook.
Tipi di file supportati
Origine dati | Linguaggio di codifica notebook | Tipo di motore di elaborazione | Supporto disponibile per il caricamento dei dati |
---|---|---|---|
File CSV | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasDataFrame | |
con Spark | Caricamento dei dati in pandasDataFrame e sparkSessionDataFrame | ||
Con Hadoop | Caricamento dei dati in pandasDataFrame e sparkSessionDataFrame | ||
R | Distribuzione di Anaconda R | Carica dati nel frame di dati R | |
con Spark | Caricare i dati in un frame di dati R e in sparkSessionDataFrame | ||
Con Hadoop | Caricare i dati in un frame di dati R e in sparkSessionDataFrame | ||
Script Python | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasStreamingBody | |
con Spark | Caricare i dati in pandasStreamingBody | ||
Con Hadoop | Caricare i dati in pandasStreamingBody | ||
R | Distribuzione di Anaconda R | Caricare i dati in rRawObject | |
con Spark | Caricare i dati in rRawObject | ||
Con Hadoop | Caricare i dati in rRawObject | ||
file JSON | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasDataFrame | |
con Spark | Caricamento dei dati in pandasDataFrame e sparkSessionDataFrame | ||
Con Hadoop | Caricamento dei dati in pandasDataFrame e sparkSessionDataFrame | ||
R | Distribuzione di Anaconda R | Carica dati nel frame di dati R | |
con Spark | Caricare i dati in frame di dati R, rRawObject e sparkSessionDataFrame | ||
Con Hadoop | Caricare i dati in frame di dati R, rRawObject e sparkSessionDataFrame | ||
File .xlsx e .xls | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasDataFrame | |
con Spark | Caricare i dati in pandasDataFrame | ||
Con Hadoop | Caricare i dati in pandasDataFrame | ||
R | Distribuzione di Anaconda R | Caricare i dati in rRawObject | |
con Spark | Nessun supporto di caricamento dati | ||
Con Hadoop | Nessun supporto di caricamento dati | ||
Tipi di file di flusso ottetto | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasStreamingBody | |
con Spark | Caricare i dati in pandasStreamingBody | ||
R | Distribuzione di Anaconda R | Caricare i dati in rRawObject | |
con Spark | Caricare i dati in rDataObject | ||
Tipo di file PDF | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasStreamingBody | |
con Spark | Caricare i dati in pandasStreamingBody | ||
Con Hadoop | Caricare i dati in pandasStreamingBody | ||
R | Distribuzione di Anaconda R | Caricare i dati in rRawObject | |
con Spark | Caricare i dati in rDataObject | ||
Con Hadoop | Caricare i dati in rRawData | ||
Tipo di file ZIP | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasStreamingBody | |
con Spark | Caricare i dati in pandasStreamingBody | ||
R | Distribuzione di Anaconda R | Caricare i dati in rRawObject | |
con Spark | Caricare i dati in rDataObject | ||
File immagine JPEG, PNG | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasStreamingBody | |
con Spark | Caricare i dati in pandasStreamingBody | ||
Con Hadoop | Caricare i dati in pandasStreamingBody | ||
R | Distribuzione di Anaconda R | Caricare i dati in rRawObject | |
con Spark | Caricare i dati in rDataObject | ||
Con Hadoop | Caricare i dati in rDataObject | ||
File binari | |||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasStreamingBody | |
con Spark | Caricare i dati in pandasStreamingBody | ||
Hadoop | Nessun supporto di caricamento dati | ||
R | Distribuzione di Anaconda R | Caricare i dati in rRawObject | |
con Spark | Caricare i dati in rRawObject | ||
Hadoop | Caricare i dati in rDataObject |
Connessioni database supportate
Origine dati | Linguaggio di codifica notebook | Tipo di motore di elaborazione | Supporto disponibile per il caricamento dei dati |
---|---|---|---|
- Db2 Warehouse on Cloud - IBM Db2 on Cloud - IBM Db2 |
|||
Python | Distribuzione Anaconda Python | Caricare i dati in ibmdbpyIda e ibmdbpyPandas | |
con Spark | Caricare i dati in ibmdbpyIda, ibmdbpyPandas e sparkSessionDataFrame | ||
Con Hadoop | Caricare i dati in ibmdbpyIda, ibmdbpyPandas e sparkSessionDataFrame | ||
R | Distribuzione di Anaconda R | Caricare i dati in ibmdbrIda e ibmdbrDataframe | |
con Spark | Caricamento dei dati in ibmdbrIda, ibmdbrDataFrame e sparkSessionDataFrame | ||
Con Hadoop | Caricamento dei dati in ibmdbrIda, ibmdbrDataFrame e sparkSessionDataFrame | ||
- Db2 for z/OS |
|||
Python | Distribuzione Anaconda Python | Caricare i dati in ibmdbpyIda e ibmdbpyPandas | |
con Spark | Nessun supporto di caricamento dati | ||
- Amazon Simple Storage Services (S3) - Amazon Simple Storage Services (S3) con un criterio di accesso IAM |
|||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasStreamingBody | |
Con Hadoop | Caricare i dati in pandasStreamingBody e sparkSessionSetup | ||
R | Distribuzione Anaconda R | Caricare i dati in rRawObject | |
Con Hadoop | Caricare i dati in rRawObject e sparkSessionSetup | ||
- IBM Cloud Databases for PostgreSQL - Microsoft SQL Server |
|||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasDataFrame | |
con Spark | Caricare i dati in pandasDataFrame | ||
R | Distribuzione di Anaconda R | Carica dati nel frame di dati R | |
con Spark | Caricare i dati in un frame di dati R e in sparkSessionDataFrame | ||
Python | Distribuzione Anaconda Python | Load data into pandasDataFrame In the generated code: - Edit the path parameter in the last line of code - Remove the comment tagging To read data, see Lettura dei dati da un'origine dati To search data, see Ricerca di oggetti di dati To write data, see Scrivere i dati in un'origine dati |
|
con Spark | Nessun supporto di caricamento dati | ||
R | Distribuzione di Anaconda R | Carica dati nel frame di dati R Nel codice generato: - Modificare il parametro del percorso nell'ultima riga di codice - Rimuovere i tag di commento Per leggere i dati, consultare Lettura dei dati da una origine dati Per ricercare dati, consultare Ricerca di oggetti dati Per scrivere dati, consultare Scrittura di dati in una origine dati |
|
con Spark | Nessun supporto di caricamento dati | ||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasDataFrame | |
con Spark | Caricare i dati in pandasDataFrame | ||
R | Distribuzione di Anaconda R | Nessun supporto di caricamento dati | |
con Spark | Nessun supporto di caricamento dati | ||
- Amazon RDS for MySQL |
|||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasDataFrame | |
con Spark | Caricare i dati in pandasDataFrame | ||
R | Distribuzione di Anaconda R | Caricare i dati in un frame di dati R e in sparkSessionDataFrame | |
con Spark | Nessun supporto di caricamento dati | ||
- HTTP - Apache Cassandra - Amazon RDS for PostgreSQL |
|||
Python | Distribuzione Anaconda Python | Caricare i dati in pandasDataFrame | |
con Spark | Caricare i dati in pandasDataFrame | ||
R | Distribuzione di Anaconda R | Carica dati nel frame di dati R | |
con Spark | Carica dati nel frame di dati R |
Argomento principale: Caricamento e accesso ai dati in un blocco note