Vous pouvez inférence et optimiser les modèles de base dans IBM watsonx.ai à l'aide d'un programme à l'aide de la bibliothèque Python .
Voir la bibliothèque Python watsonx.
Les composants suivants de watsonx.ai ont été renommés. Certains carnets Python peuvent continuer à utiliser leur nom d'origine.
- Watson Machine Learning s'appelle désormais watsonx.ai Runtime
- Watson Studio s'appelle désormais watsonx.ai Studio
Vous pouvez également utiliser des modèles de base watsonx.ai à partir d'outils tiers, notamment:
Apprendre à partir des exemples de bloc-notes disponibles
Des exemples de carnets sont disponibles et peuvent vous servir de guide lorsque vous créez vos propres carnets pour effectuer des tâches courantes telles que l'inférence ou la mise au point d'un foundation model.
Pour trouver les blocs-notes disponibles, recherchez le concentrateur de ressources. Vous pouvez ajouter à votre projet des blocs-notes que vous ouvrez à partir du concentrateur de ressources, puis les exécuter.
Vous pouvez également accéder aux blocs-notes à partir des exemples de bloc-notes Python GitHub .
Utilisation de la bibliothèque Python à partir de votre environnement de développement intégré
La bibliothèque ibm-watsonx-ai
Python est disponible sur PyPI à partir de l'URL: https://pypi.org/project/ibm-watsonx-ai/.
Vous pouvez installer la bibliothèque ibm-watsonx-ai
Python dans votre environnement de développement intégré à l'aide de la commande suivante:
pip install ibm-watsonx-ai
Si la bibliothèque est déjà installée, incluez le paramètre -U
pour récupérer les mises à jour et utiliser la dernière version de la bibliothèque.
pip install -U ibm-watsonx-ai
Utilisation de LangChain à partir d'un bloc-notes
LangChain est une infrastructure que les développeurs peuvent utiliser pour créer des applications qui intègrent des modèles de langage volumineux. LangChain peut s'avérer utile lorsque vous souhaitez lier plusieurs fonctions. Par exemple, vous pouvez utiliser LangChain dans le cadre d'une tâche de génération d'extension d'extraction (RAG).
Pour plus d'informations, voir LLMs > IBM watsonx.ai
Utilisez l'un des exemples de bloc-notes RAG qui optimise LangChain pour en savoir plus. Voir Exemples RAG.
Dans le carnet Utiliser des agents watsonx.ai et LangChain pour effectuer des séquences d'actions, vous pouvez utiliser des agents pour effectuer une séquence d'actions basées sur les réponses du foundation model.
Utilisation des fonctions LlamaIndex à partir d'un bloc-notes
LlamaIndex est une infrastructure permettant de générer des applications de modèle de langage de grande taille. Vous pouvez exploiter les fonctions disponibles dans LlamaIndex, telles que les capacités text-to-SQL ou Pandas DataFrames dans les applications que vous créez avec les modèles de base watsonx.ai.
Pour plus d'informations, voir LLMs > IBM watsonx.ai.
Vous pouvez utiliser les fonctions LlamaIndex à partir d'un bloc-notes dans watsonx.ai.
Par exemple, utilisez le bloc-notes Use watsonxet LlamaIndex for Text-to-SQL task pour convertir des requêtes en langage naturel en requêtes SQL.
Prérequis
Pour vous initier à la bibliothèque Python , vous avez d'abord besoin de données d'identification et d'un ID de projet ou d'un ID de déploiement. Pour plus d'informations, consultez les rubriques suivantes :
En savoir plus
- Obtenir des informations sur le foundation model
- Inférencer un foundation model
- Inférencer un foundation model l'aide d'un modèle d'invite
- Mise au point d'un foundation model
- Conversion de texte en incorporations de texte
Rubrique parent: Codage des solutions d'IA générative