Déployer des modèles Decision Optimization de manière programmatique

Dernière mise à jour : 27 mars 2025
Déployer le modèle d'optimisation aDecision de manière programmatique

Vous pouvez déployer votre modèle prescriptif d'Decision Optimization et toutes les données de base associées. Vous pouvez ensuite soumettre des demandes de travail à ce déploiement et il vous suffit d'inclure les données transactionnelles correspondantes. Vous pouvez déployer votre modèle en utilisant le " watsonx.ai API REST en cours d'exécution, le " watsonx.ai Exécution Python Client ou le " IBM, le " Cloud Pak for Data as a Service ou le " Interface de ligne de commande".

Titres de compétences requis
Gestion des informations d'identification des tâches

Voir l' exemple d'API REST pour un exemple de code complet. Voir Python exemples de clients pour un lien vers un carnet de notes Python disponible dans le centre de ressources.

Présentation

Les étapes pour déployer et soumettre des travaux pour un modèle Decision Optimization sont les suivantes. Ces étapes sont détaillées dans d'autres sections.

  1. Créer un service watsonx.ai Runtime.
  2. Créer un espace de déploiement en utilisant l'interface utilisateur https://dataplatform.cloud.ibm.com ou avec l'API REST.
  3. Déployez votre modèle avec toutes les données de base qui peuvent être réutilisées par tous les travaux. Ce déploiement peut être effectué à partir de l'interface utilisateur (voir Déploiement à partir de l'interface utilisateur ) ou en suivant les étapes décrites dans Déploiement d'un modèle Decision Optimization. Voir aussi cet exemple d'API REST.
  4. Créez et surveillez les travaux sur ce modèle déployé.

Diagramme du cycle de vie du modèle Decision Optimization illustrant les étapes de déploiement et d'utilisation

La taille du T-shirt fait référence à des configurations de déploiement prédéfinies : petites, moyennes, grandes et très grandes.

Tableau 1. Tailles de t-shirt pour Decision Optimization
Définition Nom Descriptif
2 vCPU et 8 Go S Petite
4 vCPU et 16 Go M Moyen
8 vCPU et 32 Go L Grande
16 vCPU et 64 Go XL Très grand
Voir aussi Travaux en cours d'exécution.

En savoir plus