Vous pouvez définir vos propres transformateurs, estimateurs, fonctions, classes et opérations tensorielles dans les modèles que vous déployez dans le Runtime 'IBM 'watsonx.ai en tant que déploiements en ligne.
Définition et utilisation de composants personnalisés
Pour utiliser des composants personnalisés avec vos modèles, vous devez les intégrer dans un paquetage de distributionPython.
Modules requis
- Le type de paquet doit être : distribution source (les distributions de type Wheel et Egg ne sont pas prises en charge)
- Le format du fichier de package doit être :
.zip
- Toutes les dépendances tierces pour vos composants personnalisés doivent être installables par
pip
et doivent être transmises à l'argumentinstall_requires
de la fonctionsetup
de la bibliothèquesetuptools
.
Se référer à : Création d'une distribution source
Stockage de votre package personnalisé
Vous devez prendre des mesures supplémentaires lorsque vous stockez votre modèle formé dans le référentiel watsonx.ai Runtime :
- Stockez votre paquetage personnalisé dans le référentiel dewatsonx.ai Runtime (utilisez la fonction '
runtimes.store_library
du client Python watsonx.ai, ou la commande 'store libraries
watsonx.ai Runtime) - Créez un objet de ressource d'exécution qui fait référence à votre paquetage personnalisé stocké, puis stockez l'objet de ressource d'exécution dans le référentiel watsonx.ai Runtime (utilisez la fonction '
runtimes.store
ou la commande 'store runtimes
) - Lorsque vous stockez votre modèle entraîné dans le référentiel Runtime de watsonx.ai, faites référence à votre ressource Runtime stockée dans les métadonnées qui sont transmises à la fonction '
store_model
(ou à la commande 'store
)
Infrastructures prises en charge
Ces infrastructures prennent en charge les composants personnalisés:
- Scikit-learn
- XGBoost
- Tensorflow
- Fonctions Python
- Scripts Python
- Decision Optimization
Pour plus d'informations, voir Infrastructures prises en charge
Rubrique parent: Personnalisation des environnements d'exécution de déploiement