0 / 0
Retourner à la version anglaise de la documentation
Cadres et spécifications logicielles dans le moteur d'exécution watsonx.ai
Dernière mise à jour : 21 nov. 2024
Cadres et spécifications logicielles dans le moteur d'exécution watsonx.ai

Vous pouvez utiliser des outils, des bibliothèques et des infrastructures populaires pour entraîner et déployer vos modèles et fonctions d'apprentissage automatique.

Infrastructure

Une infrastructure contient un ensemble d'algorithmes, d'outils et de bibliothèques réutilisables pour le développement de modèles d'apprentissage automatique que vous pouvez utiliser pour des exigences d'application spécifiques. Les infrastructures décrivent l'infrastructure d'apprentissage automatique ou d'apprentissage en profondeur utilisée pour générer le modèle. Vous pouvez utiliser des frameworks populaires tels que Tensorflow, qui prend en charge à la fois l'apprentissage profond et les algorithmes d'apprentissage machine traditionnels avec watsonx.ai Runtime pour un développement plus efficace.

Type de modèle

Le type de modèle indique l'infrastructure d'apprentissage automatique ou d'apprentissage en profondeur et la version de l'infrastructure utilisée pour générer le modèle d'apprentissage automatique. Les modèles d'apprentissage automatique ou d'apprentissage en profondeur que vous générez à l'aide de la même infrastructure peuvent ne pas être compatibles entre les versions. Par exemple, si vous avez créé votre modèle avec le type de modèle pytorch-onnx_1.10 , vous devez créer votre modèle à l'aide de pytorch version 1.10 et le sauvegarder au format ONNX.

Spécification logicielle

Les spécifications du logiciel définissent le langage de programmation et la version que vous utilisez pour construire un modèle ou une fonction. Vous pouvez utiliser les spécifications logicielles pour configurer le logiciel utilisé pour exécuter vos modèles et fonctions. Vous pouvez également définir la version du logiciel à utiliser et inclure vos propres extensions. Par exemple, vous pouvez utiliser des fichiers conda .yml ou des bibliothèques personnalisées.

Plateforme

La plateforme décrit la plateforme matérielle sur laquelle vous pouvez déployer votre modèle d'apprentissage automatique avec une spécification logicielle prise en charge. En fonction du framework avec lequel vous avez construit votre modèle, vous pouvez utiliser watsonx.ai Runtime pour déployer votre modèle sur les plateformes Zs390x), Power (PPC), ou x86.

Cycle de vie des infrastructures et spécifications logicielles prises en charge

Les infrastructures, les spécifications logicielles et les types de modèle pris en charge lors de l'installation ou de la mise à niveau vers la version la plus récente de watsonx passent par des phases d'obsolescence, de constriction et d'arrêt dans les éditions futures de watsonx, décrites comme suit:

  1. Pris en charge: L'environnement d'exécution correspondant à la spécification logicielle est pris en charge lors de l'installation ou de la mise à niveau vers la version la plus récente d' Cloud Pak for Data.

    Par exemple, la spécification logicielle " runtime-24.1-py3.11 est prise en charge dans Cloud Pak for Data version 5.0. Dans ce cas, si vous installez ou mettez à niveau une nouvelle instance de service watsonx.ai Runtime, vous pouvez créer ou déployer des modèles d'apprentissage automatique qui utilisent " runtime-24.1-py3.11.

    Pour plus d'informations, voir Infrastructures de déploiement et spécifications logicielles prises en charge.

  2. Obsolète: L'environnement d'exécution correspondant à la spécification logicielle est pris en charge lors de l'installation ou de la mise à niveau vers la version la plus récente de watsonx.ai, mais il sera supprimé dans une édition à venir.

    Par exemple, le foundation model " mixtral-8x7b-instruct-v01-q est reproduit dans watsonx.ai Dans ce cas, si vous installez une nouvelle instance de service watsonx.ai Runtime, vous pouvez créer ou déployer des modèles d'apprentissage automatique qui utilisent le " mixtral-8x7b-instruct-v01-q. Toutefois, la prise en charge de mixtral-8x7b-instruct-v01-q ne sera plus prise en charge dans une édition à venir.

  3. Non suivi: L'environnement d'exécution correspondant à la spécification logicielle n'est pas pris en charge lors de l'installation ou de la mise à niveau vers la version la plus récente de watsonx.ai.

    Par exemple, la prise en charge de granite-13b-chat-v1 n'est plus disponible dans watsonx.ai. Dans ce cas, si vous installez ou mettez à jour une nouvelle instance de service watsonx.ai Runtime, vous ne pouvez pas créer ou déployer des modèles d'apprentissage automatique qui utilisent des spécifications logicielles basées sur Python 3.9

Gestion des infrastructures et des spécifications logicielles obsolètes

Mettez à jour les spécifications et les infrastructures logicielles de vos modèles lorsqu'elles deviennent obsolètes. Parfois, vous pouvez mettre à jour vos actifs en toute transparence. Dans d'autres cas, vous devez entraîner ou redéployer vos actifs.

Pour plus d'informations, voir Gestion des spécifications ou des infrastructures logicielles obsolètes.

Sujet parent : Déployer des actifs avec watsonx.ai Runtime

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus