IBM watsonx.ai dispose d'API REST qui prennent en charge les tâches de programmation pour l'utilisation de modèles de base. Ces API sont exercées dans une bibliothèque Python et un package Node.js que vous pouvez utiliser pour optimiser les modèles de base dans vos applications d'IA génératives.
Pour trouver d'autres ressources qui peuvent vous aider dans vos tâches de codage, y compris des exemples de code et des communautés où vous pouvez discuter de conseils et d'astuces et trouver des réponses à des questions courantes, rendez-vous dans le watsonx Developer Hub.
Tâches que vous pouvez effectuer à l'aide d'un programme
Vous pouvez utiliser l'API REST watsonx.ai , la bibliothèque Python ou le SDK Node.js pour effectuer les tâches suivantes à l'aide d'un programme:
Tâche | Python | Node.js | API REST |
---|---|---|---|
Obtenir des détails sur les modèles de base disponibles | Obtenir les spécifications du modèle | Exemple | Liste des modèles de fondation pris en charge |
Vérifier les jetons qu'un modèle calcule pour une invite | Tokeniser les modèles de fondation intégrés | Exemple | Bibliothèques de texte |
Obtenir une liste des modèles de fondations personnalisées disponibles | Modèles personnalisés | Récupérer les déploiements Utiliser le paramètre " type=custom_foundation_model . |
|
Déduction d'un foundation model | Générer un texte | Exemple | Génération de texte |
Inférence d'un foundation model déploiement à la demande | Générer un texte | Déduire le texte | |
Configurer les garde-fous de l'IA lors de l'inférence d'un foundation model | Suppression des contenus préjudiciables | Utilisez le champ " moderations pour appliquer des filtres aux données d'entrée et de sortie du foundation model. Voir texte Infer |
|
Chat avec un foundation model | ModelInference.chat() | Exemple | Déduire le texte |
Appel d'outils à partir du chat | ModelInference.chat() | Déduire le texte | |
Invitation à mettre au point un foundation model | Voir la documentation | Exemple | Voir la documentation |
Inférence d'un foundation model accordé | Générer un texte | Exemple | Déduire le texte |
Liste de tous les modèles d'invite | Liste de tous les modèles d'invite | Obtenir un modèle d'invite | |
Liste des modèles d'invite déployés | Liste des modèles d'invite déployés | Liste des déploiements (type=prompt_template) | |
Inférence d'un modèle de foundation model à l'aide d'un modèle d'invite | Gestionnaire de modèles d'invites | Exemple | Déduire le texte |
Vectoriser le texte | Intégrer des documents | Exemple | Incrustation de texte |
Extraction de texte à partir de documents | Extractions de texte | extraction de texte | |
Reclasser les passages de documents | Rerank | Générer un rerank | |
Prévision des valeurs futures | TSModelInference | Prévision de séries chronologiques | |
Intégrer avec LangChain | ExtensionIBM dans LangChain | - Chat API - Foundation models - Embedding models |
|
Intégrer avec LlamaIndex | - IBM LLMs dans LlamaIndex - IBM embeddings dans LlamaIndex |
En savoir plus
- Données d'identification pour l'accès par programmation
- Recherche de l'ID de projet
- ID de modèle de base
- BibliothèquePython
- Logiciel SDK Node.js
- API REST
- Vectorisation du texte
- Reranking des passages de documents
- Extraction de texte à partir de documents
- Ajouter une fonction de chat génératif à vos applications avec l'API de chat
- Construire des flux de travail pilotés par des agents avec l'API de chat
- Prévision des valeurs futures
Rubrique parent: Développement de solutions d'IA génératives