0 / 0
Retourner à la version anglaise de la documentation
Exigences relatives à l'utilisation de composants personnalisés avec des modèles ML
Dernière mise à jour : 28 nov. 2024
Exigences relatives à l'utilisation de composants personnalisés avec des modèles ML

Vous pouvez définir vos propres transformateurs, estimateurs, fonctions, classes et opérations tensorielles dans les modèles que vous déployez dans le Runtime 'IBM 'watsonx.ai en tant que déploiements en ligne.

Définition et utilisation de composants personnalisés

Pour utiliser des composants personnalisés avec vos modèles, vous devez les intégrer dans un paquetage de distributionPython.

Exigences relatives aux packages

  • Le type de paquet doit être : distribution source (les distributions de type Wheel et Egg ne sont pas prises en charge)
  • Le format du fichier de package doit être : .zip
  • Toute dépendance tierce pour vos composants personnalisés doit pouvoir être installée par " pip et doit être transmise à l'argument " install_requires de la fonction " setup de la bibliothèque " setuptools.

Se référer à : Création d'une distribution source

Stockage de votre package personnalisé

Vous devez prendre des mesures supplémentaires lorsque vous stockez votre modèle formé dans le référentiel watsonx.ai Runtime :

  • Stockez votre paquetage personnalisé dans le référentiel dewatsonx.ai Runtime (utilisez la fonction 'runtimes.store_library du client Python watsonx.ai, ou la commande 'store libraries watsonx.ai Runtime)
  • Créez un objet de ressource d'exécution qui fait référence à votre paquetage personnalisé stocké, puis stockez l'objet de ressource d'exécution dans le référentiel watsonx.ai Runtime (utilisez la fonction 'runtimes.store ou la commande 'store runtimes )
  • Lorsque vous stockez votre modèle entraîné dans le référentiel Runtime de watsonx.ai, faites référence à votre ressource Runtime stockée dans les métadonnées qui sont transmises à la fonction 'store_model (ou à la commande 'store )

Infrastructures prises en charge

Ces cadres prennent en charge les composants personnalisés :

  • Scikit-learn
  • XGBoost
  • Tensorflow
  • Fonctions Python
  • Scripts Python
  • Decision Optimization

Pour plus d'informations, voir Cadres supportés

 

Sujet parent : Personnaliser les runtimes de déploiement

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus