Les services de base de Cloud Pak for Data as a Service fournissent
une gamme d'outils pour les utilisateurs de tous niveaux d'expérience dans la préparation, l'analyse et la modélisation de données, du débutant à l'expert. Le bon outil pour vous dépend du type de données que vous avez, des tâches que vous avez l'intention de faire et de la quantité d'automatisation que vous voulez.
Pour identifier les outils que vous utilisez dans un projet et les services dont ces outils ont besoin, ouvrez la mappe des outils et des services.
Pour sélectionner l'outil approprié, prenez en compte ces facteurs.
Le type de données que vous avez
Données tabulaires dans des fichiers délimités ou données relationnelles dans des sources de données distantes
Fichiers image
Données textuelles (non structurées) dans les documents
Le type de tâches que vous devez effectuer
Préparation des données : nettoyage, mise en forme, visualisation, organisation et validation des données.
Analyse des données : identification des masques et des relations dans les données, et affichage des connaissances.
Génération de modèles : construction, entraînement, test et déploiement de modèles pour effectuer des prédictions ou optimiser les décisions.
La quantité d'automatisation que vous souhaitez
Outils d'éditeur de code: à utiliser pour écrire du code dans Python ou R, tous avec Spark également.
Outils de générateur graphique : Utilisez les menus et les fonctionnalités de glisser-déposer d'un générateur pour le programme visuel.
Outils de générateur automatisés : permet de configurer des tâches automatisées nécessitant une entrée utilisateur limitée.
Pour utiliser un outil, vous devez créer un actif spécifique à cet outil, ou ouvrir un actif existant pour cet outil. Pour créer un actif, cliquez sur Nouvel actif ou sur Importer des actifs , puis choisissez le type d'actif de votre choix. Ce tableau présente le type d'actif à choisir pour chaque outil.
Pour éditer des blocs-notes avec RStudio, cliquez sur Lancer IDE > RStudio.
Editeur de bloc-notes Jupyter
Copy link to section
Utilisez l'éditeur de bloc-notes Jupyter pour créer un bloc-notes dans lequel vous exécutez le code pour préparer, visualiser et analyser des données, ou générer et entraîner un modèle.
Services requis
studio watsonx.ai
Format des données
Tous
Taille des données
Tous
Méthode de préparation et d'analyse des données, ou de génération de modèles
Ecrivez du code dans Python ou R, tous avec Spark également.
Inclusion de texte enrichi et de fichiers multimédia à votre code.
Utilisation de tout type de données de n'importe quelle façon.
Utilisation des bibliothèques et packages préinstallés, ou installation d'autres bibliothèques et packages IBM et open source.
Planifiez les exécutions de votre code
Importer un carnet de notes à partir d'un fichier, d'une URL ou du Centre de ressources.
Partage externe de copies en lecture seule de votre bloc-notes.
Mise en route
Pour créer un bloc-notes, cliquez sur Nouvel actif > Travailler avec des données et des modèles dansPython ou cahiers R .
Regarder une vidéo pour apprendre les bases de Jupyter notebook
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Data Refinery
Copy link to section
Utilisez Data Refinery pour préparer et visualiser les données tabulaires à l'aide d'un éditeur de flux graphique. Vous pouvez créer, puis exécuter un flux Data Refinery en tant qu'ensemble d'opérations ordonnées sur des données.
Services requis
watsonx.ai Studio ou IBM Knowledge Catalog
Format des données
Tabulaire: Avro, CSV, JSON, Microsoft Excel (formats xls et xlsx. Première feuille uniquement, sauf pour les connexions et les actifs de données connectés.), Parquet, SAS avec l'extension "sas7bdat" (lecture seule), TSV (lecture seule) ou actif de données texte délimité
Relationnel : tables dans des sources de données relationnelles
Taille des données
Tous
Méthode de préparation des données
Nettoyage, mise en forme, organisation des données avec plus de 60 opérations.
Sauvegarde des données affinées sous forme de nouveau jeu de données, ou mise à jour des données d'origine.
Profilage des données en vue de leur validation.
Utilisation de modèles interactifs pour manipuler les données avec des opérations de code, des fonctions et des opérateurs logiques.
Planification d'opérations récurrentes sur les données.
Méthode d'analyse des données
Identification de modèles, de connexions et de relations dans les données dans plusieurs graphiques de visualisation.
Mise en route
Pour créer un flux Data Refinery , cliquez sur Nouvel actif > Préparer et visualiser des données.
Regardez une vidéo pour savoir comment affiner les données
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Data Replication
Copy link to section
Utilisez Data Replication pour intégrer et synchroniser vos données. Data Replication fournit une distribution de données en temps quasi réel avec un faible impact sur les sources.
service requis
Data Replication
Service associé
IBM Knowledge Catalog
Formats de données
La Data Replication fonctionne avec des connexions vers et depuis certains types de sources et de formats de données. Pour plus d'informations, voir Connexions de Data Replication prises en charge.
credentials
Data Replication utilise vos identifiants IBM Cloud pour se connecter au service.
Mise en route
Pour lancer la réplication des données dans un projet, cliquez sur Nouvelle ressource > Répliquer les données.
Regardez une vidéo pour savoir comment répliquer des données
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Data Virtualization
Copy link to section
Utilisez Data Virtualization pour connecter plusieurs sources de données en une seule collection de sources de données ou de bases de données à équilibrage automatique.
Format des données
Relationnel : tables dans des sources de données relationnelles
Taille des données
Tous
Méthode de préparation des données
Connexion à plusieurs sources de données.
Création de tables virtuelles.
Mise en route
Pour créer des tables virtuelles, cliquez sur Données > Data virtualization Dans le menu de service, cliquez sur Virtualisation > Virtualisation > Tableaux.
Regarder une vidéo pour voir comment virtualiser les données
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
DataStage
Copy link to section
Utilisez DataStage pour préparer et visualiser des données tabulaires à l'aide d'un éditeur de flux graphique. Vous créez, puis exécutez un flux DataStage en tant qu'ensemble d'opérations ordonnées sur des données.
service requis
DataStage
Format des données
Tabulaire : Avro, CSV, JSON, Parquet, TSV (en lecture seule) ou fichiers texte délimité
Relationnel : tables dans des sources de données relationnelles
Taille des données
Tous
Méthode de préparation des données
Conception d'un flux d'intégration de données graphique qui génère du code Orchestrate à exécuter sur le moteur parallèle DataStage hautes performances
Exécution d'opérations, telles que jointure, triage, total de contrôle, fusion, modification, retrait de doublons et tri
Mise en route
Créer un DataStage couler, cliquez Nouvel atout > Transformer et intégrer les données. Le DataStage la tuile est dans le Constructeurs graphiques section.
Regardez une vidéo pour savoir comment transformer les données
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
SPSS Modeler
Copy link to section
Utilisez SPSS Modeler pour créer un flux afin de préparer des données et de générer et d'entraîner un modèle à l'aide d'un éditeur de flux sur un générateur graphique.
Services requis
studio watsonx.ai
Formats de données
Relationnel : tables dans des sources de données relationnelles
Tabulaire : fichiers Excel (.xls ou .xlsx), CSV ou SPSS Statistics (.sav)
Textuel : dans les tables ou fichiers relationnels pris en charge
Taille des données
Tous
Méthode de préparation des données
Utilisation des fonctions de préparation automatisée des données.
Ecriture d'instructions SQL pour manipuler les données.
Nettoyage, mise en forme, échantillonnage, tri et dérivation des données.
Méthode d'analyse des données
Visualisation des données avec plus de 40 graphiques.
Identification du langage naturel d'un champ de texte.
Méthode de génération des modèles
Construction de modèles prédictifs.
Choix parmi plus de 40 algorithmes de modélisation.
Utilisation des fonctions de modélisation automatique.
Modélisation de séries temporelles ou de données géospatiales.
Classification de données textuelles.
Identification des relations entre les concepts dans les données textuelles.
Mise en route
Pour créer unSPSS Modeler couler, cliquez Nouvel actif > Créer des modèles sous forme de flux visuel .
Regardez une vidéo pour savoir comment construire un modèle avec SPSS Modeler
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Générateur de modèle Decision Optimization
Copy link to section
Utilisez Decision Optimization pour générer et exécuter des modèles d'optimisation dans le modélisateur Decision Optimization ou dans un bloc-notes Jupyter.
Services requis
studio watsonx.ai
Formats de données
Tabulaire : fichiers CSV
Taille des données
Tous
Méthode de préparation des données
Importation des données pertinentes dans un scénario et édition de ces données.
Méthode de génération des modèles
Génération de modèles prescriptifs d'optimisation de décision.
Création, importation et édition de modèles en Python DOcplex, OPL ou avec des expressions en langage naturel.
Création, importation et édition de modèles dans des blocs-notes.
Méthode de résolution des modèles
Exécution et résolution de modèles d'optimisation de décision à l'aide de moteurs CPLEX.
Examen et comparaison de solutions pour plusieurs scénarios.
Création de tables, de graphiques et de remarques pour visualiser des données et des solutions pour un ou plusieurs scénarios.
Mise en route
Créer unDecision Optimization modèle, cliquez Nouvel atout > Résoudre les problèmes d'optimisation , ou pour les blocs-notes, cliquez sur Nouvel actif > Travailler avec des données et des modèles dansPython ou cahiers R .
Regardez une vidéo pour savoir comment construire une expérience d'Decision Optimization
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Outil AutoAI
Copy link to section
Utilisez l'outil AutoAI pour analyser automatiquement vos données tabulaires et générer des pipelines de modèle candidat personnalisés pour votre problème de modélisation prédictive.
Regardez une vidéo pour savoir comment construire une expérience d'AutoAI
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Apprentissage fédéré
Copy link to section
Utilisez l'outil d'apprentissage fédéré pour entraîner un modèle commun à l'aide de données réparties. Les données ne sont jamais combinées ou partagées, ce qui préserve l'intégrité des données tout en fournissant à toutes les parties participantes un modèle basé sur les données agrégées.
Services requis
studio watsonx.ai
watsonx.ai Runtime
Format des données
Tous
Taille des données
N'importe quelle taille
Méthode de génération des modèles
Choix d'une infrastructure d'entraînement.
Configuration du modèle commun.
Configuration d'un fichier pour l'entraînement du modèle commun.
Demander aux parties distantes d'entraîner leurs données.
Déploiement du modèle commun.
Mise en route
Pour créer une expérience, cliquez sur Nouvel actif > Entraîner des modèles sur des données distribuées .
Regardez une vidéo pour savoir comment construire une expérience d'apprentissage fédéré
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Metadata import
Copy link to section
Utilisez l'outil d'importation de métadonnées pour reconnaître et importer automatiquement des métadonnées techniques et de processus pour les actifs de données dans un projet ou un catalogue.
service requis
IBM Knowledge Catalog
Format des données
Tous
Taille des données
N'importe quelle taille
Méthode de préparation des données
Importation d'actifs de données à partir d'une connexion dans une source de données.
Mise en route
Pour importer des métadonnées, cliquez sur Nouvel actif > Importer des métadonnées pour les actifs de données.
Utilisez IBM Match 360 with Watson pour créer des entités de données de référence représentant des jumeaux numériques de vos clients. Modélisez et mappez vos données, puis exécutez l'algorithme de correspondance pour créer des entités de données de référence. Personnalisez et optimisez votre algorithme de correspondance pour répondre aux exigences de votre organisation.
Services requis
IBM Match 360 with Watson IBM Knowledge Catalog
Taille des données
Jusqu'à 1 000 000 enregistrements (pour le plan Beta Lite)
Méthode de préparation des données
Modélisez et mappez des données provenant de sources de votre organisation.
Exécutez l'algorithme de correspondance personnalisable pour créer des entités de données de référence.
Affichez et éditez les entités de données de référence ainsi que les enregistrements qui leur sont associés.
Mise en route
Pour créer un IBM Match 360 élément de configuration, cliquez sur Nouvel actif > Consolider les données dans des vues à 360 degrés.
Regarder une vidéo pour avoir une vue d'ensemble de l'IDE RStudio
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Masquage des flux
Copy link to section
Utilisez l'outil de flux de masquage pour préparer des copies masquées ou des sous-ensembles masqués de données à partir du catalogue. Les données sont dépersonnalisées à l'aide d'options de masquage avancées avec des règles de protection des données.
service requis
IBM Knowledge Catalog
Format des données
Relationnel : tables dans des sources de données relationnelles
Taille des données
N'importe quelle taille
Méthode de préparation et d'analyse des données, ou de génération de modèles
Importation d'actifs de données du catalogue gouverné vers le projet.
Création de définitions de travaux de masquage de flux pour spécifier les données à masquer avec des règles de protection de données.
Création de sous-ensembles de données (facultatif) pour réduire la taille des données copiées.
Exécution de travaux de masquage de flux pour charger des copies masquées vers des connexions de base de données cible.
Regardez une vidéo pour savoir comment créer un pipeline
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Visualisation des données
Copy link to section
Utilisez des visualisations de données pour découvrir des connaissances à partir de vos données. En explorant les données de différentes perspectives à l'aide de visualisations, vous pouvez identifier des modèles, des connexions et des relations au sein de ces données et comprendre rapidement de grandes quantités d'informations.
Format des données
Tableau: fichiers Avro, CSV, JSON, Parquet, TSV, SAV, Microsoft Excel .xls et .xlsx, SAS, fichiers texte délimités et données connectées. Pour plus d'informations sur les sources de données prises en charge, voir Connecteurs.
Taille des données
Aucune limite
Mise en route
Pour créer une visualisation, cliquez sur Actif de données dans la liste des types d'actif de votre projet, puis sélectionnez un actif de données. Cliquez sur l'onglet Visualisation et choisissez un type de graphique.
Use this interactive map to learn about the relationships between your tasks, the tools you need, the services that provide the tools, and where you use the tools.
Select any task, tool, service, or workspace
You'll learn what you need, how to get it, and where to use it.
Some tools perform the same tasks but have different features and levels of automation.
Jupyter notebook editor
Prepare data
Visualize data
Build models
Deploy assets
Create a notebook in which you run Python, R, or Scala code to prepare, visualize, and analyze data, or build a model.
AutoAI
Build models
Automatically analyze your tabular data and generate candidate model pipelines customized for your predictive modeling problem.
SPSS Modeler
Prepare data
Visualize data
Build models
Create a visual flow that uses modeling algorithms to prepare data and build and train a model, using a guided approach to machine learning that doesn’t require coding.
Decision Optimization
Build models
Visualize data
Deploy assets
Create and manage scenarios to find the best solution to your optimization problem by comparing different combinations of your model, data, and solutions.
Data Refinery
Prepare data
Visualize data
Create a flow of ordered operations to cleanse and shape data. Visualize data to identify problems and discover insights.
Orchestration Pipelines
Prepare data
Build models
Deploy assets
Automate the model lifecycle, including preparing data, training models, and creating deployments.
RStudio
Prepare data
Build models
Deploy assets
Work with R notebooks and scripts in an integrated development environment.
Federated learning
Build models
Create a federated learning experiment to train a common model on a set of remote data sources. Share training results without sharing data.
Deployments
Deploy assets
Monitor models
Deploy and run your data science and AI solutions in a test or production environment.
Catalogs
Catalog data
Governance
Find and share your data and other assets.
Metadata import
Prepare data
Catalog data
Governance
Import asset metadata from a connection into a project or a catalog.
Metadata enrichment
Prepare data
Catalog data
Governance
Enrich imported asset metadata with business context, data profiling, and quality assessment.
Data quality rules
Prepare data
Governance
Measure and monitor the quality of your data.
Masking flow
Prepare data
Create and run masking flows to prepare copies of data assets that are masked by advanced data protection rules.
Governance
Governance
Create your business vocabulary to enrich assets and rules to protect data.
Data lineage
Governance
Track data movement and usage for transparency and determining data accuracy.
AI factsheet
Governance
Monitor models
Track AI models from request to production.
DataStage flow
Prepare data
Create a flow with a set of connectors and stages to transform and integrate data. Provide enriched and tailored information for your enterprise.
Data virtualization
Prepare data
Create a virtual table to segment or combine data from one or more tables.
OpenScale
Monitor models
Measure outcomes from your AI models and help ensure the fairness, explainability, and compliance of all your models.
Data replication
Prepare data
Replicate data to target systems with low latency, transactional integrity and optimized data capture.
Master data
Prepare data
Consolidate data from the disparate sources that fuel your business and establish a single, trusted, 360-degree view of your customers.
Services you can use
Services add features and tools to the platform.
watsonx.ai Studio
Develop powerful AI solutions with an integrated collaborative studio and industry-standard APIs and SDKs. Formerly known as Watson Studio.
watsonx.ai Runtime
Quickly build, run and manage generative AI and machine learning applications with built-in performance and scalability. Formerly known as Watson Machine Learning.
IBM Knowledge Catalog
Discover, profile, catalog, and share trusted data in your organization.
DataStage
Create ETL and data pipeline services for real-time, micro-batch, and batch data orchestration.
Data Virtualization
View, access, manipulate, and analyze your data without moving it.
Watson OpenScale
Monitor your AI models for bias, fairness, and trust with added transparency on how your AI models make decisions.
Data Replication
Provide efficient change data capture and near real-time data delivery with transactional integrity.
Match360 with Watson
Improve trust in AI pipelines by identifying duplicate records and providing reliable data about your customers, suppliers, or partners.
Manta Data Lineage
Increase data pipeline transparency so you can determine data accuracy throughout your models and systems.
Where you'll work
Collaborative workspaces contain tools for specific tasks.
Project
Where you work with data.
> Projects > View all projects
Catalog
Where you find and share assets.
> Catalogs > View all catalogs
Space
Where you deploy and run assets that are ready for testing or production.
> Deployments
Categories
Where you manage governance artifacts.
> Governance > Categories
Data virtualization
Where you virtualize data.
> Data > Data virtualization
Master data
Where you consolidate data into a 360 degree view.
À propos des cookies sur ce sitePour fonctionner correctement, nos sites Internet nécessitent certains cookies (requis). En outre, d'autres cookies peuvent être utilisés avec votre consentement pour analyser l'utilisation d'un site, améliorer l'expérience des utilisateurs et à des fins publicitaires.Pour plus informations, passez en revue vos options de préférences en préférences en matière de cookies. En visitant notre site Web, vous acceptez que nous traitions les informations comme décrit dans ladéclaration de confidentialité d’IBM.Pour faciliter la navigation, vos préférences en matière de cookie seront partagées dans les domaines Web d'IBM énumérés ici.