0 / 0
Retourner à la version anglaise de la documentation
Exigences relatives à l'utilisation de composants personnalisés avec des modèles ML
Dernière mise à jour : 28 nov. 2024
Exigences relatives à l'utilisation de composants personnalisés avec des modèles ML

Vous pouvez définir vos propres transformateurs, estimateurs, fonctions, classes et opérations tensorielles dans les modèles que vous déployez dans le Runtime 'IBM 'watsonx.ai en tant que déploiements en ligne.

Définition et utilisation de composants personnalisés

Pour utiliser des composants personnalisés avec vos modèles, vous devez les intégrer dans un paquetage de distributionPython.

Modules requis

  • Le type de paquet doit être : distribution source (les distributions de type Wheel et Egg ne sont pas prises en charge)
  • Le format du fichier de package doit être : .zip
  • Toutes les dépendances tierces pour vos composants personnalisés doivent être installables par pip et doivent être transmises à l'argument install_requires de la fonction setup de la bibliothèque setuptools .

Se référer à : Création d'une distribution source

Stockage de votre package personnalisé

Vous devez prendre des mesures supplémentaires lorsque vous stockez votre modèle formé dans le référentiel watsonx.ai Runtime :

  • Stockez votre paquetage personnalisé dans le référentiel dewatsonx.ai Runtime (utilisez la fonction 'runtimes.store_library du client Python watsonx.ai, ou la commande 'store libraries watsonx.ai Runtime)
  • Créez un objet de ressource d'exécution qui fait référence à votre paquetage personnalisé stocké, puis stockez l'objet de ressource d'exécution dans le référentiel watsonx.ai Runtime (utilisez la fonction 'runtimes.store ou la commande 'store runtimes )
  • Lorsque vous stockez votre modèle entraîné dans le référentiel Runtime de watsonx.ai, faites référence à votre ressource Runtime stockée dans les métadonnées qui sont transmises à la fonction 'store_model (ou à la commande 'store )

Infrastructures prises en charge

Ces infrastructures prennent en charge les composants personnalisés:

  • Scikit-learn
  • XGBoost
  • Tensorflow
  • Fonctions Python
  • Scripts Python
  • Decision Optimization

Pour plus d'informations, voir Infrastructures prises en charge

 

Rubrique parent: Personnalisation des environnements d'exécution de déploiement

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus