0 / 0
Torna alla versione inglese della documentazione
ID modello Foundation
Ultimo aggiornamento: 13 dic 2024
ID modello Foundation

Quando si scrive codice che interagisce con un foundation model, è necessario fare riferimento al foundation model con il suo ID modello.

È possibile fare riferimento a un foundation model tramite il suo ID modello quando si eseguono le seguenti operazioni:

ID del modello della Fondazione per l'inferenza dall'API

Utilizzare il metodo REST List the available foundation models (Elenco dei modelli di fondazione disponibili ) per ottenere il '{model_id} di un foundation model e quindi specificare l'ID del modello come stringa nel codice.

Per informazioni su come ottenere gli ID dei modelli utilizzando la libreria Python, vedere Ottieni informazioni sui modelli di fondazione disponibili in modo programmatico.

ID del modello per l'inferenza

L'elenco seguente mostra i valori da utilizzare nel parametro {model_id} quando si inferisce un foundation model distribuito da IBM dall'API.

Per gli ID dei modelli di fondazione deploy on demand, vedere ID del modello della Fondazione per la distribuzione dall'API. Per dedurre un foundation model deploy on demand utilizzando l'API, è necessario specificare l'ID di deploy per il modello, non l'ID del modello.

  • all-minilm-l6-v2

    sentence-transformers/all-minilm-l6-v2
    
  • all-minilm-l12-v2

    sentence-transformers/all-minilm-l12-v2
    
  • allam-1-13b-instruct

    sdaia/allam-1-13b-instruct
    
  • codellama-34b-instruct-hf

    codellama/codellama-34b-instruct-hf
    
  • elyza-japanese-llama-2-7b-instruct

    elyza/elyza-japanese-llama-2-7b-instruct
    
  • flan-t5-xxl-11b

    google/flan-t5-xxl
    
  • flan-ul2-20b

    google/flan-ul2
    
  • granite-7b-lab

    ibm/granite-7b-lab
    
  • granite-8b-japanese

    ibm/granite-8b-japanese
    
  • granite-13b-chat-v2

    ibm/granite-13b-chat-v2
    
  • granite-13b-instruct-v2

    ibm/granite-13b-instruct-v2
    
  • granite-20b-multilingual

    ibm/granite-20b-multilingual
    
  • granite-3-2b-instruct

    ibm/granite-3-2b-instruct
    
  • granite-3-8b-instruct

    ibm/granite-3-8b-instruct
    
  • granite-guardian-3-2b

    ibm/granite-guardian-3-2b
    
  • granite-guardian-3-8b

    ibm/granite-guardian-3-8b
    
  • granite-3b-code-instruct

    ibm/granite-3b-code-instruct
    
  • granite-8b-code-instruct

    ibm/granite-8b-code-instruct
    
  • granite-20b-code-instruct

    ibm/granite-20b-code-instruct
    
  • granite-34b-code-instruct

    ibm/granite-34b-code-instruct
    
  • jais-13b-chat

    core42/jais-13b-chat
    
  • llama-3-3-70b-instruct

    meta-llama/llama-3-3-70b-instruct
    
  • llama-3-2-1b-instruct

    meta-llama/llama-3-2-1b-instruct
    
  • llama-3-2-3b-instruct

    meta-llama/llama-3-2-3b-instruct
    
  • llama-3-2-11b-vision-instruct

    meta-llama/llama-3-2-11b-vision-instruct
    
  • llama-3-2-90b-vision-instruct

    meta-llama/llama-3-2-90b-vision-instruct
    
  • llama-guard-3-11b-instruct

    meta-llama/llama-guard-3-11b-vision
    
  • llama-3-1-8b-instruct

    meta-llama/llama-3-1-8b-instruct
    
  • llama-3-1-70b-instruct

    meta-llama/llama-3-1-70b-instruct
    
  • llama-3-405b-instruct

    meta-llama/llama-3-405b-instruct
    
  • llama-3-8b-instruct

    meta-llama/llama-3-8b-instruct
    
  • llama-3-70b-instruct

    meta-llama/llama-3-70b-instruct
    
  • llama-2-13b-chat

    meta-llama/llama-2-13b-chat
    
  • llama-2-70b-chat

    meta-llama/llama-2-70b-chat
    
  • llama2-13b-dpo-v7

    mnci/llama2-13b-dpo-v7
    
  • mistral-large

    mistralai/mistral-large
    
  • mixtral-8x7b-instruct-v01

    mistralai/mixtral-8x7b-instruct-v01
    
  • ms-marco-minilm-l-12-v2

    cross-encoder/ms-marco-minilm-l-12-v2
    
  • mt0-xxl-13b

    bigscience/mt0-xxl
    
  • multilingual-e5-large

    intfloat/multilingual-e5-large
    
  • pixtral-12b

    mistralai/pixtral-12b
    
  • slate-30m-english-rtrvr

    ibm/slate-30m-english-rtrvr
    
  • slate-30m-english-rtrvr-v2

    ibm/slate-30m-english-rtrvr-v2
    
  • slate-125m-english-rtrvr

    ibm/slate-30m-english-rtrvr
    
  • slate-125m-english-rtrvr-v2

    ibm/slate-30m-english-rtrvr-v2
    

ID del modello della Fondazione per la distribuzione dall'API

Per ottenere programmaticamente un elenco di modelli di fondazione che possono essere distribuiti su richiesta, specificare il parametro filters=curated quando si invia una richiesta del metodo REST API List the available foundation models.

Ad esempio:

curl -X GET \
  'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'

Dall'API REST di watsonx.ai, è possibile utilizzare il metodo Create a deployment per distribuire il foundation model e quindi utilizzare il metodo Deployments > Infer text per dedurre il foundation model distribuito.

Per ulteriori informazioni, vedere Distribuzione e gestione dei modelli di fondazione distribuiti su richiesta con API REST.

ID modello per la distribuzione

L'elenco seguente mostra i valori da utilizzare nel parametro {model_id} quando si distribuisce un foundation model deploy on demand dall'API.

  • granite-3-8b-base

    ibm/granite-3-8b-base-curated
    
  • granite-13b-chat-v2

    ibm/granite-13b-chat-v2-curated
    
  • granite-13b-instruct-v2

    ibm/granite-13b-instruct-v2-curated
    
  • granite-20b-code-base-schema-linking

    ibm/granite-20b-code-base-schema-linking-curated
    
  • granite-20b-code-base-sql-gen

    ibm/granite-20b-code-base-sql-gen-curated
    
  • flan-t5-xl-3b

    google/flan-t5-xl-curated
    
  • flan-t5-xxl-11b

    google/flan-t5-xxl-curated
    
  • flan-ul2-20b

    google/flan-ul2-curated
    
  • llama-2-13b-chat

    meta-llama/llama-2-13b-chat-curated
    
  • llama-2-70b-chat

    meta-llama/llama-2-70b-chat-curated
    
  • llama-3-8b-instruct

    meta-llama/llama-3-8b-instruct-curated
    
  • llama-3-70b-instruct

    meta-llama/llama-3-70b-instruct-curated
    
  • llama-3-1-8b

    meta-llama/llama-3-1-8b-curated
    
  • llama-3-1-8b-instruct

    meta-llama/llama-3-1-8b-instruct-curated
    
  • llama-3-3-70b-instruct

    meta-llama/llama-3-3-70b-instruct-curated
    
  • llama-3-3-70b-instruct-hf

    meta-llama/llama-3-3-70b-instruct-hf-curated
    
  • mixtral-8x7b-base

    mistralai/mixtral-8x7b-base-curated
    
  • mixtral-8x7b-instruct-v01

    mistralai/mixtral-8x7b-instruct-v01-curated
    
  • mistral-nemo-instruct-2407

    mistralai/mistral-nemo-instruct-2407-curated
    
  • mt0-xxl-13b

    bigscience/mt0-xxl-curated
    

Argomento principale: Coding generative AI solutions

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni