Retourner à la version anglaise de la documentationExigences relatives à l'utilisation de composants personnalisés avec des modèles ML
Exigences relatives à l'utilisation de composants personnalisés avec des modèles ML
Dernière mise à jour : 28 nov. 2024
Vous pouvez définir vos propres transformateurs, estimateurs, fonctions, classes et opérations tensorielles dans les modèles que vous déployez dans le Runtime 'IBM 'watsonx.ai en tant que déploiements en ligne.
Définition et utilisation de composants personnalisés
Pour utiliser des composants personnalisés avec vos modèles, vous devez les intégrer dans un paquetage de distributionPython.
Exigences relatives aux packages
- Le type de paquet doit être : distribution source (les distributions de type Wheel et Egg ne sont pas prises en charge)
- Le format du fichier de package doit être :
.zip
- Toute dépendance tierce pour vos composants personnalisés doit pouvoir être installée par "
pip
et doit être transmise à l'argument "install_requires
de la fonction "setup
de la bibliothèque "setuptools
.
Se référer à : Création d'une distribution source
Stockage de votre package personnalisé
Vous devez prendre des mesures supplémentaires lorsque vous stockez votre modèle formé dans le référentiel watsonx.ai Runtime :
- Stockez votre paquetage personnalisé dans le référentiel dewatsonx.ai Runtime (utilisez la fonction '
runtimes.store_library
du client Python watsonx.ai, ou la commande 'store libraries
watsonx.ai Runtime) - Créez un objet de ressource d'exécution qui fait référence à votre paquetage personnalisé stocké, puis stockez l'objet de ressource d'exécution dans le référentiel watsonx.ai Runtime (utilisez la fonction '
runtimes.store
ou la commande 'store runtimes
) - Lorsque vous stockez votre modèle entraîné dans le référentiel Runtime de watsonx.ai, faites référence à votre ressource Runtime stockée dans les métadonnées qui sont transmises à la fonction '
store_model
(ou à la commande 'store
)
Infrastructures prises en charge
Ces cadres prennent en charge les composants personnalisés :
- Scikit-learn
- XGBoost
- Tensorflow
- Fonctions Python
- Scripts Python
- Decision Optimization
Pour plus d'informations, voir Cadres supportés
Sujet parent : Personnaliser les runtimes de déploiement