0 / 0
Retourner à la version anglaise de la documentation
Plusieurs fichiers de modèle dans un Decision Optimization expérimentation vues
Dernière mise à jour : 12 août 2024
Fichiers de modèles multiples dans une expérimentation Decision Optimization

Vous pouvez créer des modèles Python ou OPL qui utilisent plusieurs fichiers de modèle

Pour les modèles Python ou OPL, dans le Créer un modèle afficher, vous pouvez ajouter plusieurs fichiers en cliquant sur l'onglet + en regard de MODELEet en sélectionnant Ajouter un nouveau vide ou Télécharger des fichiers (pour ajouter n'importe quel type de fichier). Vous pouvez également sélectionner Ajouter un fichier de paramètres de moteur pour personnaliser les paramètres par défaut de CPLEX et de CP Optimizer. Ces paramètres sont ensuite fournis dans un éditeur visuel dans lequel vous pouvez sélectionner différentes catégories et options.

L'onglet MODEL doit toujours contenir votre modèle principal. Si vous tentez de télécharger un autre fichier portant le même nom, par exemple, model.py, vous serez invité à le télécharger avec un nouveau nom ou à remplacer votre modèle principal.

Vous pouvez également remplacer un modèle (onglet en cours uniquement) en cliquant sur l'icône Importer icône Importer. Si vous choisissez de remplacer un modèle à l'aide de l'icône Remplacer icône de remplacement, tous les onglets sont supprimés.

Voir l'exemple Multifile dans le dossier Model_Builder de DO-samples.

Pour les modèles Python , si vous générez un bloc-notes comportant plusieurs fichiers de modèle, ces fichiers sont automatiquement référencés dans le bloc-notes généré afin que vous puissiez les lire à partir du bloc-notes. La version de Python pour votre bloc-notes généré dépend de l'environnement que vous avez configuré pour votre scénario. Si l'environnement a été créé automatiquement pour votre scénario, le notebook utilise la version Python par défaut 3.11.

En savoir plus

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus