Vous pouvez orchestrer un flux de ressources de bout en bout, de la création au déploiement, sur un canevas graphique avec l'éditeur Pipelines. Vous pouvez assembler et configurer un pipeline pour créer, former, déployer et mettre à jour des modèles d'apprentissage automatique et des Python.
Pour plus d'informations sur les régions prises en charge pour Orchestration Pipelines, voir Limitations régionales pour Cloud Pak for Data as a Service.
Concevoir un pipeline en faisant glisser des nœuds sur le canevas, en spécifiant des objets et des paramètres, puis en exécutant et en contrôlant le pipeline.
Automatisation du chemin vers la production
L'insertion d'un modèle dans un produit est un processus en plusieurs étapes. Les données doivent être chargées et traitées, les modèles doivent être formés et évalués avant d'être déployés et testés. Les expériences d'IA, l'analyse des données et les modèles d'apprentissage automatique nécessitent tous davantage d'observation, d'évaluation et de mise à jour au fil du temps pour éviter les biais ou les dérives.
Le graphique suivant montre un exemple de cycle de vie d'un modèle que vous pouvez automatiser parmi les nombreux flux possibles que vous pouvez créer.
Vous pouvez automatiser le pipeline pour :
- charger et traiter des données en toute sécurité à partir d'un large éventail de sources internes et de connexions externes.
- obtenir les résultats souhaités en construisant, en exécutant, en évaluant et en déployant des modèles ou des scripts d'exécution de manière cohérente.
- facilitent l'exécution des trajectoires de votre flux en créant des branches et en collectant les résultats à l'aide de visuels directs.
Les pipelines peuvent exécuter des expériences, y compris mais sans s'y limiter :
- Expérimentations AutoAI
- Jupyter Notebook emplois
- Data Refinery emplois
- SPSS Modeler emplois
Pour réduire le délai entre la conception et la production, vous pouvez assembler le pipeline et rapidement mettre à jour et tester les modifications. Le canevas Pipelines fournit des outils permettant de visualiser le pipeline, de le personnaliser lors de l'exécution avec des variables de paramètre de pipeline, puis de l'exécuter en tant que travail d'essai ou selon un planning.
Utilisez les outils d'édition Pipelines pour une collaboration plus cohérente entre un data scientist et un ingénieur ModelOps. Un spécialiste des données peut créer et entraîner un modèle. Un ingénieur ModelOps peut ensuite automatiser le processus d'entraînement, de déploiement et d'évaluation du modèle après sa publication dans un environnement de production.
Cas d'utilisation et tutoriels
Vous pouvez inclure IBM Orchestration Pipelines dans votre solution de data fabric pour gérer et automatiser le cycle de vie de vos données et de votre IA. Pour plus d'informations sur la façon dont Data Fabric peut prendre en charge vos objectifs et opérations d'apprentissage automatique de manière pratique, consultez les cas d'utilisation.
- Le cas d'utilisation de la science des données et des MLOps décrit comment gérer les données, construire un pipeline de construction et de déploiement de modèles, et évaluer l'équité et la performance des modèles.
- Tutoriel Data Science and MLOps: Orchestration d'un pipeline d'IA avec intégration de données
- Tutoriel Data Science and MLOps: Orchestration d'un pipeline d'IA avec la surveillance de modèle
Autres ressources
Pour plus d'informations, voir ce billet de blogue sur Automatisation du cycle de vie AI avec un flux de pipeline.
En savoir plus
- Ajouter un pipeline à votre projet et apprendre à connaître les outils de canevas.
- Exécutez l'échantillon de pipeline intégré pour essayer d'exécuter un flux de pipeline pratique.
- Créer un pipeline pour créer un flux de bout en bout de votre scénario personnalisé.
- Exécution et sauvegarde des pipelines pour gérer vos pipelines comme des actifs.