Lorsque vous écrivez du code qui interagit avec un foundation model, vous devez référencer le foundation model par son ID de modèle.
Vous pouvez référencer un foundation model par son ID de modèle lorsque vous effectuez les opérations suivantes :
- Inference est un foundation model déployé par IBM Voir les ID de modèles de fondation pour l'inférence à partir de l'API.
- Déployer un foundation model déploiement à la demande. Voir les ID de modèles de fondation pour le déploiement à partir de l'API.
ID de modèle de fondation pour l'inférence à partir de l'API
Utilisez la méthode REST Lister les modèles de fondation disponibles pour obtenir le {model_id}
d'un foundation model , puis spécifiez l'ID du modèle sous forme de chaîne dans votre code.
Pour plus d'informations sur la manière d'obtenir les identifiants des modèles en utilisant la bibliothèque Python, voir Obtenir des informations sur les modèles de fondation disponibles de manière programmatique.
ID de modèle pour l'inférence
La liste suivante indique les valeurs à utiliser dans le paramètre {model_id}
lorsque vous déduisez un foundation model déployé par IBM à partir de l'API.
Pour les identifiants des modèles de fondation à déployer à la demande, voir Identifiants des modèles de fondation à déployer à partir de l'API. Pour déduire un foundation model déployé à la demande à l'aide de l'API, vous devez spécifier l'ID de déploiement du modèle, et non l'ID du modèle.
all-minilm-l6-v2
sentence-transformers/all-minilm-l6-v2
all-minilm-l12-v2
sentence-transformers/all-minilm-l12-v2
allam-1-13b-instruct
sdaia/allam-1-13b-instruct
codellama-34b-instruct-hf
codellama/codellama-34b-instruct-hf
elyza-japanese-llama-2-7b-instruct
elyza/elyza-japanese-llama-2-7b-instruct
flan-t5-xxl-11b
google/flan-t5-xxl
flan-ul2-20b
google/flan-ul2
granite-7b-lab
ibm/granite-7b-lab
granite-8b-japanese
ibm/granite-8b-japanese
granite-13b-chat-v2
ibm/granite-13b-chat-v2
granite-13b-instruct-v2
ibm/granite-13b-instruct-v2
granite-20b-multilingual
ibm/granite-20b-multilingual
granite-3-2b-instruct
ibm/granite-3-2b-instruct
granite-3-8b-instruct
ibm/granite-3-8b-instruct
granite-guardian-3-2b
ibm/granite-guardian-3-2b
granite-guardian-3-8b
ibm/granite-guardian-3-8b
granite-3b-code-instruct
ibm/granite-3b-code-instruct
granite-8b-code-instruct
ibm/granite-8b-code-instruct
granite-20b-code-instruct
ibm/granite-20b-code-instruct
granite-34b-code-instruct
ibm/granite-34b-code-instruct
jais-13b-chat
core42/jais-13b-chat
llama-3-3-70b-instruct
meta-llama/llama-3-3-70b-instruct
llama-3-2-1b-instruct
meta-llama/llama-3-2-1b-instruct
llama-3-2-3b-instruct
meta-llama/llama-3-2-3b-instruct
llama-3-2-11b-vision-instruct
meta-llama/llama-3-2-11b-vision-instruct
llama-3-2-90b-vision-instruct
meta-llama/llama-3-2-90b-vision-instruct
llama-guard-3-11b-instruct
meta-llama/llama-guard-3-11b-vision
llama-3-1-8b-instruct
meta-llama/llama-3-1-8b-instruct
llama-3-1-70b-instruct
meta-llama/llama-3-1-70b-instruct
llama-3-405b-instruct
meta-llama/llama-3-405b-instruct
llama-3-8b-instruct
meta-llama/llama-3-8b-instruct
llama-3-70b-instruct
meta-llama/llama-3-70b-instruct
llama-2-13b-chat
meta-llama/llama-2-13b-chat
llama-2-70b-chat
meta-llama/llama-2-70b-chat
llama2-13b-dpo-v7
mnci/llama2-13b-dpo-v7
mistral-large
mistralai/mistral-large
mixtral-8x7b-instruct-v01
mistralai/mixtral-8x7b-instruct-v01
ms-marco-minilm-l-12-v2
cross-encoder/ms-marco-minilm-l-12-v2
mt0-xxl-13b
bigscience/mt0-xxl
multilingual-e5-large
intfloat/multilingual-e5-large
pixtral-12b
mistralai/pixtral-12b
slate-30m-english-rtrvr
ibm/slate-30m-english-rtrvr
slate-30m-english-rtrvr-v2
ibm/slate-30m-english-rtrvr-v2
slate-125m-english-rtrvr
ibm/slate-30m-english-rtrvr
slate-125m-english-rtrvr-v2
ibm/slate-30m-english-rtrvr-v2
ID de modèle de fondation pour le déploiement à partir de l'API
Pour obtenir de manière programmatique une liste des modèles de fondation qui peuvent être déployés à la demande, spécifiez le paramètre filters=curated
lorsque vous soumettez une demande API REST de méthode de liste des modèles de fondation disponibles.
Par exemple :
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'
Depuis l'API REST de watsonx.ai, vous pouvez utiliser la méthode Créer un déploiement pour déployer le foundation model, puis utiliser la méthode Déploiements > Inférer le texte pour inférer le foundation model déployé.
Pour plus d'informations, voir Déployer et gérer les modèles de fondation déployés à la demande avec l'API REST.
ID de modèle pour le déploiement
La liste suivante indique les valeurs à utiliser dans le paramètre {model_id}
lorsque vous déployez un foundation model déployé à la demande à partir de l'API.
granite-3-8b-base
ibm/granite-3-8b-base-curated
granite-13b-chat-v2
ibm/granite-13b-chat-v2-curated
granite-13b-instruct-v2
ibm/granite-13b-instruct-v2-curated
granite-20b-code-base-schema-linking
ibm/granite-20b-code-base-schema-linking-curated
granite-20b-code-base-sql-gen
ibm/granite-20b-code-base-sql-gen-curated
flan-t5-xl-3b
google/flan-t5-xl-curated
flan-t5-xxl-11b
google/flan-t5-xxl-curated
flan-ul2-20b
google/flan-ul2-curated
llama-2-13b-chat
meta-llama/llama-2-13b-chat-curated
llama-2-70b-chat
meta-llama/llama-2-70b-chat-curated
llama-3-8b-instruct
meta-llama/llama-3-8b-instruct-curated
llama-3-70b-instruct
meta-llama/llama-3-70b-instruct-curated
llama-3-1-8b
meta-llama/llama-3-1-8b-curated
llama-3-1-8b-instruct
meta-llama/llama-3-1-8b-instruct-curated
llama-3-3-70b-instruct
meta-llama/llama-3-3-70b-instruct-curated
llama-3-3-70b-instruct-hf
meta-llama/llama-3-3-70b-instruct-hf-curated
mixtral-8x7b-base
mistralai/mixtral-8x7b-base-curated
mixtral-8x7b-instruct-v01
mistralai/mixtral-8x7b-instruct-v01-curated
mistral-nemo-instruct-2407
mistralai/mistral-nemo-instruct-2407-curated
mt0-xxl-13b
bigscience/mt0-xxl-curated
Rubrique parent: Codage des solutions d'IA générative