0 / 0
Retourner à la version anglaise de la documentation
Codage des solutions d'IA générative
Dernière mise à jour : 12 déc. 2024
Codage des solutions d'IA générative

IBM watsonx.ai dispose d'API REST qui prennent en charge les tâches de programmation pour l'utilisation de modèles de base. Ces API sont exercées dans une bibliothèque Python et un package Node.js que vous pouvez utiliser pour optimiser les modèles de base dans vos applications d'IA génératives.

Pour trouver d'autres ressources qui peuvent vous aider dans vos tâches de codage, y compris des exemples de code et des communautés où vous pouvez discuter de conseils et d'astuces et trouver des réponses à des questions courantes, rendez-vous dans le watsonx Developer Hub.

Tâches que vous pouvez effectuer à l'aide d'un programme

Vous pouvez utiliser l'API REST watsonx.ai , la bibliothèque Python ou le SDK Node.js pour effectuer les tâches suivantes à l'aide d'un programme:

Tableau 1. Tâches que vous pouvez effectuer de manière programmatique dans watsonx.ai
Tâche Python Node.js API REST
Obtenir des détails sur les modèles de base disponibles Obtenir les spécifications du modèle Exemple Liste des modèles de fondation pris en charge
Vérifier les jetons qu'un modèle calcule pour une invite Tokeniser les modèles de fondation intégrés Exemple Bibliothèques de texte
Obtenir une liste des modèles de fondations personnalisées disponibles Modèles personnalisés Récupérer les déploiements
Utiliser le paramètre " type=custom_foundation_model.
Déduction d'un foundation model Générer un texte Exemple Génération de texte
Inférence d'un foundation model déploiement à la demande Générer un texte Déduire le texte
Configurer les garde-fous de l'IA lors de l'inférence d'un foundation model Suppression des contenus préjudiciables Utilisez le champ " moderations pour appliquer des filtres aux données d'entrée et de sortie du foundation model. Voir texte Infer
Chat avec un foundation model ModelInference.chat() Exemple Déduire le texte
Appel d'outils à partir du chat ModelInference.chat() Déduire le texte
Invitation à mettre au point un foundation model Voir la documentation Exemple Voir la documentation
Inférence d'un foundation model accordé Générer un texte Exemple Déduire le texte
Liste de tous les modèles d'invite Liste de tous les modèles d'invite Obtenir un modèle d'invite
Liste des modèles d'invite déployés Liste des modèles d'invite déployés Liste des déploiements (type=prompt_template)
Inférence d'un modèle de foundation model à l'aide d'un modèle d'invite Gestionnaire de modèles d'invites Exemple Déduire le texte
Vectoriser le texte Intégrer des documents Exemple Incrustation de texte
Extraction de texte à partir de documents Extractions de texte extraction de texte
Reclasser les passages de documents Rerank Générer un rerank
Prévision des valeurs futures TSModelInference Prévision de séries chronologiques
Intégrer avec LangChain ExtensionIBM dans LangChain - Chat API
- Foundation models
- Embedding models
Intégrer avec LlamaIndex - IBM LLMs dans LlamaIndex
- IBM embeddings dans LlamaIndex

En savoir plus

Rubrique parent: Développement de solutions d'IA génératives

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus