0 / 0
Retourner à la version anglaise de la documentation
ID de modèle de base
Dernière mise à jour : 13 déc. 2024
ID de modèle de base

Lorsque vous écrivez du code qui interagit avec un foundation model, vous devez référencer le foundation model par son ID de modèle.

Vous pouvez référencer un foundation model par son ID de modèle lorsque vous effectuez les opérations suivantes :

ID de modèle de fondation pour l'inférence à partir de l'API

Utilisez la méthode REST Lister les modèles de fondation disponibles pour obtenir le {model_id} d'un foundation model , puis spécifiez l'ID du modèle sous forme de chaîne dans votre code.

Pour plus d'informations sur la manière d'obtenir les identifiants des modèles en utilisant la bibliothèque Python, voir Obtenir des informations sur les modèles de fondation disponibles de manière programmatique.

ID de modèle pour l'inférence

La liste suivante indique les valeurs à utiliser dans le paramètre {model_id} lorsque vous déduisez un foundation model déployé par IBM à partir de l'API.

Pour les identifiants des modèles de fondation à déployer à la demande, voir Identifiants des modèles de fondation à déployer à partir de l'API. Pour déduire un foundation model déployé à la demande à l'aide de l'API, vous devez spécifier l'ID de déploiement du modèle, et non l'ID du modèle.

  • all-minilm-l6-v2

    sentence-transformers/all-minilm-l6-v2
    
  • all-minilm-l12-v2

    sentence-transformers/all-minilm-l12-v2
    
  • allam-1-13b-instruct

    sdaia/allam-1-13b-instruct
    
  • codellama-34b-instruct-hf

    codellama/codellama-34b-instruct-hf
    
  • elyza-japanese-llama-2-7b-instruct

    elyza/elyza-japanese-llama-2-7b-instruct
    
  • flan-t5-xxl-11b

    google/flan-t5-xxl
    
  • flan-ul2-20b

    google/flan-ul2
    
  • granite-7b-lab

    ibm/granite-7b-lab
    
  • granite-8b-japanese

    ibm/granite-8b-japanese
    
  • granite-13b-chat-v2

    ibm/granite-13b-chat-v2
    
  • granite-13b-instruct-v2

    ibm/granite-13b-instruct-v2
    
  • granite-20b-multilingual

    ibm/granite-20b-multilingual
    
  • granite-3-2b-instruct

    ibm/granite-3-2b-instruct
    
  • granite-3-8b-instruct

    ibm/granite-3-8b-instruct
    
  • granite-guardian-3-2b

    ibm/granite-guardian-3-2b
    
  • granite-guardian-3-8b

    ibm/granite-guardian-3-8b
    
  • granite-3b-code-instruct

    ibm/granite-3b-code-instruct
    
  • granite-8b-code-instruct

    ibm/granite-8b-code-instruct
    
  • granite-20b-code-instruct

    ibm/granite-20b-code-instruct
    
  • granite-34b-code-instruct

    ibm/granite-34b-code-instruct
    
  • jais-13b-chat

    core42/jais-13b-chat
    
  • llama-3-3-70b-instruct

    meta-llama/llama-3-3-70b-instruct
    
  • llama-3-2-1b-instruct

    meta-llama/llama-3-2-1b-instruct
    
  • llama-3-2-3b-instruct

    meta-llama/llama-3-2-3b-instruct
    
  • llama-3-2-11b-vision-instruct

    meta-llama/llama-3-2-11b-vision-instruct
    
  • llama-3-2-90b-vision-instruct

    meta-llama/llama-3-2-90b-vision-instruct
    
  • llama-guard-3-11b-instruct

    meta-llama/llama-guard-3-11b-vision
    
  • llama-3-1-8b-instruct

    meta-llama/llama-3-1-8b-instruct
    
  • llama-3-1-70b-instruct

    meta-llama/llama-3-1-70b-instruct
    
  • llama-3-405b-instruct

    meta-llama/llama-3-405b-instruct
    
  • llama-3-8b-instruct

    meta-llama/llama-3-8b-instruct
    
  • llama-3-70b-instruct

    meta-llama/llama-3-70b-instruct
    
  • llama-2-13b-chat

    meta-llama/llama-2-13b-chat
    
  • llama-2-70b-chat

    meta-llama/llama-2-70b-chat
    
  • llama2-13b-dpo-v7

    mnci/llama2-13b-dpo-v7
    
  • mistral-large

    mistralai/mistral-large
    
  • mixtral-8x7b-instruct-v01

    mistralai/mixtral-8x7b-instruct-v01
    
  • ms-marco-minilm-l-12-v2

    cross-encoder/ms-marco-minilm-l-12-v2
    
  • mt0-xxl-13b

    bigscience/mt0-xxl
    
  • multilingual-e5-large

    intfloat/multilingual-e5-large
    
  • pixtral-12b

    mistralai/pixtral-12b
    
  • slate-30m-english-rtrvr

    ibm/slate-30m-english-rtrvr
    
  • slate-30m-english-rtrvr-v2

    ibm/slate-30m-english-rtrvr-v2
    
  • slate-125m-english-rtrvr

    ibm/slate-30m-english-rtrvr
    
  • slate-125m-english-rtrvr-v2

    ibm/slate-30m-english-rtrvr-v2
    

ID de modèle de fondation pour le déploiement à partir de l'API

Pour obtenir de manière programmatique une liste des modèles de fondation qui peuvent être déployés à la demande, spécifiez le paramètre filters=curated lorsque vous soumettez une demande API REST de méthode de liste des modèles de fondation disponibles.

Par exemple :

curl -X GET \
  'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'

Depuis l'API REST de watsonx.ai, vous pouvez utiliser la méthode Créer un déploiement pour déployer le foundation model, puis utiliser la méthode Déploiements > Inférer le texte pour inférer le foundation model déployé.

Pour plus d'informations, voir Déployer et gérer les modèles de fondation déployés à la demande avec l'API REST.

ID de modèle pour le déploiement

La liste suivante indique les valeurs à utiliser dans le paramètre {model_id} lorsque vous déployez un foundation model déployé à la demande à partir de l'API.

  • granite-3-8b-base

    ibm/granite-3-8b-base-curated
    
  • granite-13b-chat-v2

    ibm/granite-13b-chat-v2-curated
    
  • granite-13b-instruct-v2

    ibm/granite-13b-instruct-v2-curated
    
  • granite-20b-code-base-schema-linking

    ibm/granite-20b-code-base-schema-linking-curated
    
  • granite-20b-code-base-sql-gen

    ibm/granite-20b-code-base-sql-gen-curated
    
  • flan-t5-xl-3b

    google/flan-t5-xl-curated
    
  • flan-t5-xxl-11b

    google/flan-t5-xxl-curated
    
  • flan-ul2-20b

    google/flan-ul2-curated
    
  • llama-2-13b-chat

    meta-llama/llama-2-13b-chat-curated
    
  • llama-2-70b-chat

    meta-llama/llama-2-70b-chat-curated
    
  • llama-3-8b-instruct

    meta-llama/llama-3-8b-instruct-curated
    
  • llama-3-70b-instruct

    meta-llama/llama-3-70b-instruct-curated
    
  • llama-3-1-8b

    meta-llama/llama-3-1-8b-curated
    
  • llama-3-1-8b-instruct

    meta-llama/llama-3-1-8b-instruct-curated
    
  • llama-3-3-70b-instruct

    meta-llama/llama-3-3-70b-instruct-curated
    
  • llama-3-3-70b-instruct-hf

    meta-llama/llama-3-3-70b-instruct-hf-curated
    
  • mixtral-8x7b-base

    mistralai/mixtral-8x7b-base-curated
    
  • mixtral-8x7b-instruct-v01

    mistralai/mixtral-8x7b-instruct-v01-curated
    
  • mistral-nemo-instruct-2407

    mistralai/mistral-nemo-instruct-2407-curated
    
  • mt0-xxl-13b

    bigscience/mt0-xxl-curated
    

Rubrique parent: Codage des solutions d'IA générative

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus