Vous pouvez ajouter du code généré automatiquement pour charger des données à partir d'actifs de données de projet dans une cellule de bloc-notes. Le type d'actif peut être un fichier ou une connexion de base de données.
En cliquant dans une cellule de code vide de votre bloc-notes, en cliquant sur l'icône Fragments de code () dans la barre d'outils du bloc-notes, en sélectionnant Lire les données et un actif du projet, vous pouvez:
Insérer les données d'identification d'accès de source de données. Cette fonction est disponible pour tous les actifs de données qui sont ajoutés à un projet. Avec les données d'identification, vous pouvez écrire votre propre code pour accéder à l'actif et charger les données dans les structures de données de votre choix.
Générer du code qui est ajouté à la cellule de bloc-notes. Le code inséré sert de démarrage rapide pour vous permettre de commencer à utiliser facilement un jeu de données ou une connexion. Pour les systèmes de production, vous devez examiner attentivement le code inséré pour déterminer si vous devez écrire votre propre code qui répond mieux à vos besoins.
Lorsque vous exécutez la cellule de code, les données sont accessibles et chargées dans la structure de données que vous avez sélectionnée.
Remarques :
- La possibilité de fournir du code généré est désactivée pour certaines connexions si:
- Les données d'identification de connexion sont des données d'identification personnelles
- La connexion utilise une liaison de passerelle sécurisée
- Les données d'identification de connexion sont stockées dans des coffres
- Si le type de fichier ou la connexion de base de données que vous utilisez n'apparaît pas dans les listes suivantes, vous pouvez choisir de créer un code générique. Pour Python, il s'agit d'un objet StreamingBody et d'un objet textConnection pour R.
- La possibilité de fournir du code généré est désactivée pour certaines connexions si:
Les tableaux suivants indiquent les connexions de source de données (types de fichiers et connexions de base de données) qui prennent en charge l'option de génération de code. Les options de génération de code varient en fonction de la source de données, du langage de codage du bloc-notes et du calcul d'exécution du bloc-notes.
Types de fichier pris en charge
Source de données | Langage de codification de bloc-notes | Type de moteur de calcul | Prise en charge disponible pour le chargement de données |
---|---|---|---|
Fichiers CSV | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasDataFrame | |
Avec Spark | Chargement de données dans pandasDataFrame et sparkSessionDataFrame | ||
Avec Hadoop | Chargement de données dans pandasDataFrame et sparkSessionDataFrame | ||
R | Distribution Anaconda R | Chargement de données dans un DataFrame R | |
Avec Spark | Chargement de données dans un DataFrame R et dans sparkSessionDataFrame | ||
Avec Hadoop | Chargement de données dans un DataFrame R et dans sparkSessionDataFrame | ||
Script Python | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasStreamingBody | |
Avec Spark | Chargement de données dans pandasStreamingBody | ||
Avec Hadoop | Chargement de données dans pandasStreamingBody | ||
R | Distribution Anaconda R | Chargement de données dans rRawObject | |
Avec Spark | Chargement de données dans rRawObject | ||
Avec Hadoop | Chargement de données dans rRawObject | ||
fichiers JSON | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasDataFrame | |
Avec Spark | Chargement de données dans pandasDataFrame et sparkSessionDataFrame | ||
Avec Hadoop | Chargement de données dans pandasDataFrame et sparkSessionDataFrame | ||
R | Distribution Anaconda R | Chargement de données dans un DataFrame R | |
Avec Spark | Chargement de données dans un DataFrame R, rRawObject et sparkSessionDataFrame | ||
Avec Hadoop | Chargement de données dans un DataFrame R, rRawObject et sparkSessionDataFrame | ||
Fichiers .xlsx et .xls | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasDataFrame | |
Avec Spark | Chargement de données dans pandasDataFrame | ||
Avec Hadoop | Chargement de données dans pandasDataFrame | ||
R | Distribution Anaconda R | Chargement de données dans rRawObject | |
Avec Spark | Pas de prise en charge du chargement de données | ||
Avec Hadoop | Pas de prise en charge du chargement de données | ||
Types de fichier Octet-stream | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasStreamingBody | |
Avec Spark | Chargement de données dans pandasStreamingBody | ||
R | Distribution Anaconda R | Chargement de données dans rRawObject | |
Avec Spark | Chargement de données dans rDataObject | ||
Type de fichier PDF | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasStreamingBody | |
Avec Spark | Chargement de données dans pandasStreamingBody | ||
Avec Hadoop | Chargement de données dans pandasStreamingBody | ||
R | Distribution Anaconda R | Chargement de données dans rRawObject | |
Avec Spark | Chargement de données dans rDataObject | ||
Avec Hadoop | Chargement de données dans rRawData | ||
Type de fichier ZIP | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasStreamingBody | |
Avec Spark | Chargement de données dans pandasStreamingBody | ||
R | Distribution Anaconda R | Chargement de données dans rRawObject | |
Avec Spark | Chargement de données dans rDataObject | ||
Fichiers image JPEG, PNG | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasStreamingBody | |
Avec Spark | Chargement de données dans pandasStreamingBody | ||
Avec Hadoop | Chargement de données dans pandasStreamingBody | ||
R | Distribution Anaconda R | Chargement de données dans rRawObject | |
Avec Spark | Chargement de données dans rDataObject | ||
Avec Hadoop | Chargement de données dans rDataObject | ||
Fichiers binaires | |||
Python | Distribution Anaconda Python | Chargement de données dans pandasStreamingBody | |
Avec Spark | Chargement de données dans pandasStreamingBody | ||
Hadoop | Pas de prise en charge du chargement de données | ||
R | Distribution Anaconda R | Chargement de données dans rRawObject | |
Avec Spark | Chargement de données dans rRawObject | ||
Hadoop | Chargement de données dans rDataObject |
Connexions de base de données prises en charge
Source de données | Langage de codification de bloc-notes | Type de moteur de calcul | Prise en charge disponible pour le chargement de données |
---|---|---|---|
- Db2 Warehouse on Cloud - IBM Db2 on Cloud - Base de données IBM Db2 |
|||
Python | Distribution Anaconda Python | Chargement de données dans ibmdbpyIda et ibmdbpyPandas | |
Avec Spark | Chargement de données dans ibmdbpyIda, ibmdbpyPandas et sparkSessionDataFrame | ||
Avec Hadoop | Chargement de données dans ibmdbpyIda, ibmdbpyPandas et sparkSessionDataFrame | ||
R | Distribution Anaconda R | Chargement de données dans ibmdbrIda et ibmdbrDataframe | |
Avec Spark | Chargement de données dans ibmdbrIda, ibmdbrDataFrame et sparkSessionDataFrame | ||
Avec Hadoop | Chargement de données dans ibmdbrIda, ibmdbrDataFrame et sparkSessionDataFrame | ||
- Db2 for z/OS |
|||
Python | Distribution Anaconda Python | Chargement de données dans ibmdbpyIda et ibmdbpyPandas | |
Avec Spark | Pas de prise en charge du chargement de données | ||
- Amazon Simple Storage Services (S3) - Amazon Simple Storage Services (S3) avec une règle d'accès IAM |
|||
Python | Distribution Anaconda Python | Chargement de données dans pandasStreamingBody | |
Avec Hadoop | Chargement de données dans pandasStreamingBody et sparkSessionSetup | ||
R | Distribution Anaconda R | Chargement de données dans rRawObject | |
Avec Hadoop | Chargement de données dans rRawObject et sparkSessionSetup | ||
- IBM Cloud Databases for PostgreSQL - Microsoft SQL Server |
|||
Python | Distribution Anaconda Python | Chargement de données dans pandasDataFrame | |
Avec Spark | Chargement de données dans pandasDataFrame | ||
R | Distribution Anaconda R | Chargement de données dans un DataFrame R | |
Avec Spark | Chargement de données dans un DataFrame R et dans sparkSessionDataFrame | ||
Python | Distribution Anaconda Python | Load data into pandasDataFrame In the generated code: - Edit the path parameter in the last line of code - Remove the comment tagging To read data, see Lecture de données à partir d'une source de données To search data, see Recherche d'objets de données To write data, see Écrire des données dans une source de données |
|
Avec Spark | Pas de prise en charge du chargement de données | ||
R | Distribution Anaconda R | Chargez les données dans le cadre de données R Dans le code généré: -Editez le paramètre de chemin dans la dernière ligne de code -Supprimez le balisage de commentaire Pour lire les données, voir Lecture de données à partir d'une source de données Pour rechercher des données, voir Recherche d'objets de données Pour écrire des données, voir Ecriture de données dans une source de données |
|
Avec Spark | Pas de prise en charge du chargement de données | ||
Python | Distribution Anaconda Python | Chargement de données dans pandasDataFrame | |
Avec Spark | Chargement de données dans pandasDataFrame | ||
R | Distribution Anaconda R | Pas de prise en charge du chargement de données | |
Avec Spark | Pas de prise en charge du chargement de données | ||
- Amazon RDS for MySQL |
|||
Python | Distribution Anaconda Python | Chargement de données dans pandasDataFrame | |
Avec Spark | Chargement de données dans pandasDataFrame | ||
R | Distribution Anaconda R | Chargement de données dans un DataFrame R et dans sparkSessionDataFrame | |
Avec Spark | Pas de prise en charge du chargement de données | ||
- HTTP - Apache Cassandra - Amazon RDS pour PostgreSQL |
|||
Python | Distribution Anaconda Python | Chargement de données dans pandasDataFrame | |
Avec Spark | Chargement de données dans pandasDataFrame | ||
R | Distribution Anaconda R | Chargement de données dans un DataFrame R | |
Avec Spark | Chargement de données dans un DataFrame R |
Rubrique parent : Chargement et accès aux données dans un bloc-notes