0 / 0
Retourner à la version anglaise de la documentation
IBM Orchestration Pipelines
Dernière mise à jour : 25 oct. 2024
IBM Orchestration Pipelines

Vous pouvez orchestrer un flux de ressources de bout en bout, de la création au déploiement, sur un canevas graphique avec l'éditeur Pipelines. Vous pouvez assembler et configurer un pipeline pour créer, former, déployer et mettre à jour des modèles d'apprentissage automatique et des Python.

Pour plus d'informations sur les régions prises en charge pour Orchestration Pipelines, voir Limitations régionales pour Cloud Pak for Data as a Service.

Concevoir un pipeline en faisant glisser des nœuds sur le canevas, en spécifiant des objets et des paramètres, puis en exécutant et en contrôlant le pipeline.

Automatisation du chemin vers la production

L'insertion d'un modèle dans un produit est un processus en plusieurs étapes. Les données doivent être chargées et traitées, les modèles doivent être formés et évalués avant d'être déployés et testés. Les expériences d'IA, l'analyse des données et les modèles d'apprentissage automatique nécessitent tous davantage d'observation, d'évaluation et de mise à jour au fil du temps pour éviter les biais ou les dérives.

Le graphique suivant montre un exemple de cycle de vie d'un modèle que vous pouvez automatiser parmi les nombreux flux possibles que vous pouvez créer.

Automatisation du cycle de vie de l'intelligence artificielle

Vous pouvez automatiser le pipeline pour :

  • charger et traiter des données en toute sécurité à partir d'un large éventail de sources internes et de connexions externes.
  • obtenir les résultats souhaités en construisant, en exécutant, en évaluant et en déployant des modèles ou des scripts d'exécution de manière cohérente.
  • facilitent l'exécution des trajectoires de votre flux en créant des branches et en collectant les résultats à l'aide de visuels directs.

Les pipelines peuvent exécuter des expériences, y compris mais sans s'y limiter :

  • Expérimentations AutoAI
  • Jupyter Notebook emplois
  • Data Refinery emplois
  • SPSS Modeler emplois

Pour réduire le délai entre la conception et la production, vous pouvez assembler le pipeline et rapidement mettre à jour et tester les modifications. Le canevas Pipelines fournit des outils permettant de visualiser le pipeline, de le personnaliser lors de l'exécution avec des variables de paramètre de pipeline, puis de l'exécuter en tant que travail d'essai ou selon un planning.

Utilisez les outils d'édition Pipelines pour une collaboration plus cohérente entre un data scientist et un ingénieur ModelOps. Un spécialiste des données peut créer et entraîner un modèle. Un ingénieur ModelOps peut ensuite automatiser le processus d'entraînement, de déploiement et d'évaluation du modèle après sa publication dans un environnement de production.

Cas d'utilisation et tutoriels

Vous pouvez inclure IBM Orchestration Pipelines dans votre solution de data fabric pour gérer et automatiser le cycle de vie de vos données et de votre IA. Pour plus d'informations sur la façon dont Data Fabric peut prendre en charge vos objectifs et opérations d'apprentissage automatique de manière pratique, consultez les cas d'utilisation.

Autres ressources

Pour plus d'informations, voir ce billet de blogue sur Automatisation du cycle de vie AI avec un flux de pipeline.

En savoir plus

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus