0 / 0
Torna alla versione inglese della documentazione

Ottenere informazioni sul modello di fondazione

Ultimo aggiornamento: 07 mar 2025
Ottenere informazioni sul modello di fondazione

Ottenere un elenco dei modelli di fondazioni utilizzati in watsonx.ai e filtrare l'elenco in modo utile.

Modi per sviluppare

È possibile ottenere informazioni sui modelli di fondazione disponibili utilizzando questi metodi di programmazione:

In alternativa, è possibile visualizzare l'elenco dei modelli di fondazione e filtrarli dall'hub Risorse dell'interfaccia utente watsonx.ai. Per maggiori dettagli, consultare le seguenti risorse:

API REST

È possibile utilizzare il metodo List the available foundation models dell'API watsonx.ai per ottenere informazioni sui modelli di fondazione disponibili.

Le informazioni sul modello restituite includono l'ID del modello, necessario per fare riferimento al modello nel codice.

Elenco dei modelli di fondazione disponibili

Il metodo Elenca i modelli di fondazione disponibili nell'API watsonx.ai ottiene informazioni sui modelli di fondazione distribuiti da IBM in watsonx.ai e che puoi immediatamente dedurre.

curl -X GET \
  'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-05-01'

Dopo aver ottenuto l'ID del modello, è possibile fare riferimento all'ID del modello nel codice in questo modo:

curl --request POST 'https://{cluster_url}/ml/v1/text/generation?version=2023-05-02'
-H 'Authorization: Bearer eyJhbGciOiJSUzUxM...'
-H 'Content-Type: application/json'
-H 'Accept: application/json'
--data-raw '{
  "model_id": "google/flan-t5-xxl",
  "input": "Tell me a story",
  "project_id": "63dc4cf1-252f-424b-b52d-5cdd9814987f"
}'

Elenco dei modelli di fondazione personalizzati

Per ottenere un elenco dei modelli di fondazione personalizzati distribuiti a cui è possibile accedere, utilizzare il metodo seguente. Questo metodo richiede un token al portatore.

curl -X GET \
  'https://{region}.ml.cloud.ibm.com/ml/v4/deployments?version=2024-12-12&type=custom_foundation_model'

Elenco dei modelli di distribuzione su richiesta

Per ottenere un elenco di modelli di fondazione forniti da IBM che si possono distribuire autonomamente, utilizzare il metodo seguente:

curl -X GET \
  'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'

Utilizzare l'ID modello restituito per distribuire il modello di base distribuibile su richiesta in uno spazio di distribuzione. Dopo aver distribuito il modello, è possibile fare l'inferenza del modello usando l'endpoint dell'API per la distribuzione.

Trovare gli ID dei modelli per l'inferenza dei modelli di fondazione forniti

Per trovare gli ID dei modelli di fondazione forniti, seguire questi link:

ID del modello per i modelli di fondazione deploy on demand

Attenzione : ricorda che non puoi dedurre un modello di base deploy on demand dal suo ID modello. L'ID del modello viene utilizzato solo per distribuire il modello. Dopo aver distribuito il modello, è possibile fare l'inferenza del modello usando l'endpoint dell'API per la distribuzione.

Dall'API REST di watsonx.ai, è possibile utilizzare il metodo Create a deployment per distribuire il modello di base, quindi utilizzare il metodo Deployments > Infer text per inferire il modello di base distribuito.

Per ulteriori informazioni, vedere Distribuzione e gestione dei modelli di fondazione distribuiti su richiesta con API REST.

Il seguente elenco mostra i valori da utilizzare nel parametro " {model_id} " quando si distribuisce un modello di base "deploy on demand" dall'API.

  • granite-3-8b-base

    ibm/granite-3-8b-base-curated
    
  • granite-7b-lab

    ibm/granite-7b-lab-curated
    
  • granite-8b-japanese

    ibm/granite-8b-japanese-curated
    
  • granite-20b-multilingual

    ibm/granite-20b-multilingual-curated
    
  • granite-13b-chat-v2

    ibm/granite-13b-chat-v2-curated
    
  • granite-13b-instruct-v2

    ibm/granite-13b-instruct-v2-curated
    
  • granite-20b-code-base-schema-linking

    ibm/granite-20b-code-base-schema-linking-curated
    
  • granite-20b-code-base-sql-gen

    ibm/granite-20b-code-base-sql-gen-curated
    
  • allam-1-13b-instruct

    ibm/allam-1-13b-instruct-curated
    
  • deepseek-r1-distill-llama-8b

    deepseek-ai/deepseek-r1-distill-llama-8b-curated
    
  • deepseek-r1-distill-llama-70b

    deepseek-ai/deepseek-r1-distill-llama-70b-curated
    
  • flan-t5-xl-3b

    google/flan-t5-xl-curated
    
  • flan-t5-xxl-11b

    google/flan-t5-xxl-curated
    
  • flan-ul2-20b

    google/flan-ul2-curated
    
  • llama-2-13b-chat

    meta-llama/llama-2-13b-chat-curated
    
  • llama-2-70b-chat

    meta-llama/llama-2-70b-chat-curated
    
  • llama-3-8b-instruct

    meta-llama/llama-3-8b-instruct-curated
    
  • llama-3-70b-instruct

    meta-llama/llama-3-70b-instruct-curated
    
  • llama-3-1-8b

    meta-llama/llama-3-1-8b-curated
    
  • llama-3-1-8b-instruct

    meta-llama/llama-3-1-8b-instruct-curated
    
  • llama-3-3-70b-instruct

    meta-llama/llama-3-3-70b-instruct-curated
    
  • llama-3-3-70b-instruct-hf

    meta-llama/llama-3-3-70b-instruct-hf-curated
    
  • mixtral-8x7b-base

    mistralai/mixtral-8x7b-base-curated
    
  • mixtral-8x7b-instruct-v01

    mistralai/mixtral-8x7b-instruct-v01-curated
    
  • mistral-nemo-instruct-2407

    mistralai/mistral-nemo-instruct-2407-curated
    
  • mt0-xxl-13b

    bigscience/mt0-xxl-curated
    

Argomento principale: Coding generative AI solutions