0 / 0
Retourner à la version anglaise de la documentation
Chargement de données via des fragments de code générés
Dernière mise à jour : 04 oct. 2024
Chargement de données via des fragments de code générés

Vous pouvez ajouter du code généré automatiquement pour charger des données à partir d'actifs de données de projet dans une cellule de bloc-notes. Le type d'actif peut être un fichier ou une connexion de base de données.

En cliquant dans une cellule de code vide de votre bloc-notes, en cliquant sur l'icône Fragments de code (l'icône Fragments de code) dans la barre d'outils du bloc-notes, en sélectionnant Lire les données et un actif du projet, vous pouvez:

  • Insérer les données d'identification d'accès de source de données. Cette fonction est disponible pour tous les actifs de données qui sont ajoutés à un projet. Avec les données d'identification, vous pouvez écrire votre propre code pour accéder à l'actif et charger les données dans les structures de données de votre choix.

  • Générer du code qui est ajouté à la cellule de bloc-notes. Le code inséré sert de démarrage rapide pour vous permettre de commencer à utiliser facilement un jeu de données ou une connexion. Pour les systèmes de production, vous devez examiner attentivement le code inséré pour déterminer si vous devez écrire votre propre code qui répond mieux à vos besoins.

    Lorsque vous exécutez la cellule de code, les données sont accessibles et chargées dans la structure de données que vous avez sélectionnée.

    Remarques :

    1. La possibilité de fournir du code généré est désactivée pour certaines connexions si:
      • Les données d'identification de connexion sont des données d'identification personnelles
      • La connexion utilise une liaison de passerelle sécurisée
      • Les données d'identification de connexion sont stockées dans des coffres
    2. Si le type de fichier ou la connexion de base de données que vous utilisez n'apparaît pas dans les listes suivantes, vous pouvez choisir de créer un code générique. Pour Python, il s'agit d'un objet StreamingBody et d'un objet textConnection pour R.

Les tableaux suivants indiquent les connexions de source de données (types de fichiers et connexions de base de données) qui prennent en charge l'option de génération de code. Les options de génération de code varient en fonction de la source de données, du langage de codage du bloc-notes et du calcul d'exécution du bloc-notes.

Types de fichier pris en charge

Tableau 1. Types de fichier pris en charge
Source de données Langage de codification de bloc-notes Type de moteur de calcul Prise en charge disponible pour le chargement de données
Fichiers CSV
Python Distribution Anaconda Python Chargement de données dans pandasDataFrame
Avec Spark Chargement de données dans pandasDataFrame et sparkSessionDataFrame 
Avec Hadoop Chargement de données dans pandasDataFrame et sparkSessionDataFrame 
R Distribution Anaconda R Chargement de données dans un DataFrame R
Avec Spark Chargement de données dans un DataFrame R et dans sparkSessionDataFrame 
Avec Hadoop Chargement de données dans un DataFrame R et dans sparkSessionDataFrame 
Script Python
Python Distribution Anaconda Python Chargement de données dans pandasStreamingBody
Avec Spark Chargement de données dans pandasStreamingBody
Avec Hadoop Chargement de données dans pandasStreamingBody
R Distribution Anaconda R Chargement de données dans rRawObject
Avec Spark Chargement de données dans rRawObject
Avec Hadoop Chargement de données dans rRawObject
fichiers JSON
Python Distribution Anaconda Python Chargement de données dans pandasDataFrame
Avec Spark Chargement de données dans pandasDataFrame et sparkSessionDataFrame 
Avec Hadoop Chargement de données dans pandasDataFrame et sparkSessionDataFrame 
R Distribution Anaconda R Chargement de données dans un DataFrame R
Avec Spark Chargement de données dans un DataFrame R, rRawObject et sparkSessionDataFrame 
Avec Hadoop Chargement de données dans un DataFrame R, rRawObject et sparkSessionDataFrame 
Fichiers .xlsx et .xls
Python Distribution Anaconda Python Chargement de données dans pandasDataFrame
Avec Spark Chargement de données dans pandasDataFrame
Avec Hadoop Chargement de données dans pandasDataFrame
R Distribution Anaconda R Chargement de données dans rRawObject
Avec Spark Pas de prise en charge du chargement de données
Avec Hadoop Pas de prise en charge du chargement de données
Types de fichier Octet-stream
Python Distribution Anaconda Python Chargement de données dans pandasStreamingBody
Avec Spark Chargement de données dans pandasStreamingBody
R Distribution Anaconda R Chargement de données dans rRawObject
Avec Spark Chargement de données dans rDataObject
Type de fichier PDF
Python Distribution Anaconda Python Chargement de données dans pandasStreamingBody
Avec Spark Chargement de données dans pandasStreamingBody
Avec Hadoop Chargement de données dans pandasStreamingBody
R Distribution Anaconda R Chargement de données dans rRawObject
Avec Spark Chargement de données dans rDataObject
Avec Hadoop Chargement de données dans rRawData
Type de fichier ZIP
Python Distribution Anaconda Python Chargement de données dans pandasStreamingBody
Avec Spark Chargement de données dans pandasStreamingBody
R Distribution Anaconda R Chargement de données dans rRawObject
Avec Spark Chargement de données dans rDataObject
Fichiers image JPEG, PNG
Python Distribution Anaconda Python Chargement de données dans pandasStreamingBody
Avec Spark Chargement de données dans pandasStreamingBody
Avec Hadoop Chargement de données dans pandasStreamingBody
R Distribution Anaconda R Chargement de données dans rRawObject
Avec Spark Chargement de données dans rDataObject
Avec Hadoop Chargement de données dans rDataObject
Fichiers binaires
Python Distribution Anaconda Python Chargement de données dans pandasStreamingBody
Avec Spark Chargement de données dans pandasStreamingBody
Hadoop Pas de prise en charge du chargement de données
R Distribution Anaconda R Chargement de données dans rRawObject
Avec Spark Chargement de données dans rRawObject
Hadoop Chargement de données dans rDataObject

Connexions de base de données prises en charge

Tableau 2. Connexions de base de données prises en charge
Source de données Langage de codification de bloc-notes Type de moteur de calcul Prise en charge disponible pour le chargement de données
- Db2 Warehouse on Cloud
- IBM Db2 on Cloud
- Base de données IBM Db2
Python Distribution Anaconda Python Chargement de données dans ibmdbpyIda et ibmdbpyPandas
Avec Spark Chargement de données dans ibmdbpyIda, ibmdbpyPandas et sparkSessionDataFrame
Avec Hadoop Chargement de données dans ibmdbpyIda, ibmdbpyPandas et sparkSessionDataFrame
R Distribution Anaconda R Chargement de données dans ibmdbrIda et ibmdbrDataframe
Avec Spark Chargement de données dans ibmdbrIda, ibmdbrDataFrame et sparkSessionDataFrame 
Avec Hadoop Chargement de données dans ibmdbrIda, ibmdbrDataFrame et sparkSessionDataFrame 
- Db2 for z/OS
Python Distribution Anaconda Python Chargement de données dans ibmdbpyIda et ibmdbpyPandas
Avec Spark Pas de prise en charge du chargement de données
- Amazon Simple Storage Services (S3)
- Amazon Simple Storage Services (S3) avec une règle d'accès IAM
Python Distribution Anaconda Python Chargement de données dans pandasStreamingBody
Avec Hadoop Chargement de données dans pandasStreamingBody et sparkSessionSetup
R Distribution Anaconda R Chargement de données dans rRawObject
Avec Hadoop Chargement de données dans rRawObject et sparkSessionSetup
- IBM Cloud Databases for PostgreSQL
- Microsoft SQL Server
Python Distribution Anaconda Python Chargement de données dans pandasDataFrame
Avec Spark Chargement de données dans pandasDataFrame
R Distribution Anaconda R Chargement de données dans un DataFrame R
Avec Spark Chargement de données dans un DataFrame R et dans sparkSessionDataFrame 
Python Distribution Anaconda Python Load data into pandasDataFrame

In the generated code:
- Edit the path parameter in the last line of code
- Remove the comment tagging

To read data, see Lecture de données à partir d'une source de données
To search data, see Recherche d'objets de données
To write data, see Écrire des données dans une source de données
Avec Spark Pas de prise en charge du chargement de données
R Distribution Anaconda R Chargez les données dans le cadre de données R

Dans le code généré:
-Editez le paramètre de chemin dans la dernière ligne de code
-Supprimez le balisage de commentaire

Pour lire les données, voir Lecture de données à partir d'une source de données
Pour rechercher des données, voir Recherche d'objets de données
Pour écrire des données, voir Ecriture de données dans une source de données
Avec Spark Pas de prise en charge du chargement de données
Python Distribution Anaconda Python Chargement de données dans pandasDataFrame
Avec Spark Chargement de données dans pandasDataFrame
R Distribution Anaconda R Pas de prise en charge du chargement de données
Avec Spark Pas de prise en charge du chargement de données
- Amazon RDS for MySQL
Python Distribution Anaconda Python Chargement de données dans pandasDataFrame
Avec Spark Chargement de données dans pandasDataFrame
R Distribution Anaconda R Chargement de données dans un DataFrame R et dans sparkSessionDataFrame 
Avec Spark Pas de prise en charge du chargement de données
- HTTP
- Apache Cassandra
- Amazon RDS pour PostgreSQL
Python Distribution Anaconda Python Chargement de données dans pandasDataFrame
Avec Spark Chargement de données dans pandasDataFrame
R Distribution Anaconda R Chargement de données dans un DataFrame R
Avec Spark Chargement de données dans un DataFrame R

Rubrique parent : Chargement et accès aux données dans un bloc-notes

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus