Obtention des informations du modèle de base
Obtenez une liste des modèles de fondation déployés dans watsonx.ai et filtrez la liste de manière utile.
Moyens de développement
Vous pouvez obtenir des informations sur les modèles de fondation disponibles en utilisant ces méthodes de programmation :
Vous pouvez également consulter la liste des modèles de fondation et les filtrer à partir du centre de ressources de l'interface utilisateur watsonx.ai. Pour plus de détails, voir les ressources suivantes :
API REST
Vous pouvez utiliser la méthode List the available foundation models de l'API watsonx.ai pour obtenir des informations sur les modèles de fondations disponibles.
Les informations sur le modèle qui sont renvoyées comprennent l'identifiant du modèle, dont vous avez besoin pour référencer le modèle dans votre code.
Liste des modèles de fondations disponibles
La méthode List the available foundation models de l'API watsonx.ai permet d'obtenir des informations sur les modèles de base fournis par IBM dans watsonx.ai et que vous pouvez utiliser immédiatement pour l'inférence.
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-05-01'
Après avoir obtenu l'ID du modèle, vous pouvez y faire référence dans votre code comme suit :
curl --request POST 'https://{cluster_url}/ml/v1/text/generation?version=2023-05-02'
-H 'Authorization: Bearer eyJhbGciOiJSUzUxM...'
-H 'Content-Type: application/json'
-H 'Accept: application/json'
--data-raw '{
"model_id": "google/flan-t5-xxl",
"input": "Tell me a story",
"project_id": "63dc4cf1-252f-424b-b52d-5cdd9814987f"
}'
Liste des modèles de fondation personnalisés
Pour obtenir une liste des modèles de fondation personnalisés déployés auxquels vous pouvez accéder, utilisez la méthode suivante. Cette méthode nécessite un jeton de porteur.
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v4/deployments?version=2024-12-12&type=custom_foundation_model'
Liste des modèles de déploiement à la demande
Pour obtenir une liste des modèles de fondation fournis par IBM que vous pouvez déployer vous-même, utilisez la méthode suivante :
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'
Utilisez l'ID du modèle renvoyé pour déployer le modèle de base de déploiement à la demande dans un espace de déploiement. Après avoir déployé le modèle, vous pouvez l'inférer en utilisant le point de terminaison de l'API pour votre déploiement.
Recherche d'identifiants de modèles pour l'inférence des modèles de fondations fournis
Pour trouver les identifiants des modèles de fondations fournis, suivez ces liens :
ID de modèle pour les modèles de fondation déployés à la demande
Depuis l'API REST d' watsonx.ai, vous pouvez utiliser la méthode Create a deployment pour déployer le modèle de base, puis utiliser la méthode Deployments > Infer text pour inférer votre modèle de base déployé.
Pour plus d'informations, voir Déployer et gérer les modèles de fondation déployés à la demande avec l'API REST.
La liste suivante indique les valeurs à utiliser dans le paramètre « {model_id}
» lorsque vous déployez un modèle « deploy on demand foundation » à partir de l'API.
granite-3-1-8b-base
ibm/granite-3-1-8b-base-curated
granite-3-3-8b-instruct-curated
ibm/granite-3-3-2b-instruct-curated
granite-3-3-2b-instruct-curated
ibm/granite-3-3-2b-instruct-curated
granite-3-2-8b-instruct
ibm/granite-3-2-8b-instruct-curated
granite-3-8b-base
ibm/granite-3-8b-base-curated
granite-7b-lab
ibm/granite-7b-lab-curated
granite-8b-japanese
ibm/granite-8b-japanese-curated
granite-20b-multilingual
ibm/granite-20b-multilingual-curated
granite-13b-chat-v2
ibm/granite-13b-chat-v2-curated
granite-13b-instruct-v2
ibm/granite-13b-instruct-v2-curated
granite-20b-code-base-schema-linking
ibm/granite-20b-code-base-schema-linking-curated
granite-20b-code-base-sql-gen
ibm/granite-20b-code-base-sql-gen-curated
allam-1-13b-instruct
ibm/allam-1-13b-instruct-curated
codellama-34b-instruct-hf
meta-llama/codellama-34b-instruct-hf-curated
deepseek-r1-distill-llama-8b
deepseek-ai/deepseek-r1-distill-llama-8b-curated
deepseek-r1-distill-llama-70b
deepseek-ai/deepseek-r1-distill-llama-70b-curated
eurollm-1-7b-instruct
utter-project/eurollm-1-7b-instruct-curated
eurollm-9b-instruct
utter-project/eurollm-9b-instruct-curated
flan-t5-xl-3b
google/flan-t5-xl-curated
flan-t5-xxl-11b
google/flan-t5-xxl-curated
flan-ul2-20b
google/flan-ul2-curated
llama-2-13b-chat
meta-llama/llama-2-13b-chat-curated
llama-2-70b-chat
meta-llama/llama-2-70b-chat-curated
llama-3-8b-instruct
meta-llama/llama-3-8b-instruct-curated
llama-3-70b-instruct
meta-llama/llama-3-70b-instruct-curated
llama-3-1-8b
meta-llama/llama-3-1-8b-curated
llama-3-1-8b-instruct
meta-llama/llama-3-1-8b-instruct-curated
llama-3-2-11b-vision-instruct
meta-llama/llama-3-2-11b-vision-instruct-curated
llama-3-3-70b-instruct
meta-llama/llama-3-3-70b-instruct-curated
llama-3-3-70b-instruct-hf
meta-llama/llama-3-3-70b-instruct-hf-curated
mixtral-8x7b-base
mistralai/mixtral-8x7b-base-curated
mixtral-8x7b-instruct-v01
mistralai/mixtral-8x7b-instruct-v01-curated
mistral-nemo-instruct-2407
mistralai/mistral-nemo-instruct-2407-curated
mt0-xxl-13b
bigscience/mt0-xxl-curated
poro-34b-chat
lumiopen/poro-34b-chat-curated
Rubrique parent: Codage des solutions d'IA générative