Ottenere informazioni sul modello di fondazione
Ottenere un elenco dei modelli di fondazioni utilizzati in watsonx.ai e filtrare l'elenco in modo utile.
Modi per sviluppare
È possibile ottenere informazioni sui modelli di fondazione disponibili utilizzando questi metodi di programmazione:
In alternativa, è possibile visualizzare l'elenco dei modelli di fondazione e filtrarli dall'hub Risorse dell'interfaccia utente watsonx.ai. Per maggiori dettagli, consultare le seguenti risorse:
API REST
È possibile utilizzare il metodo List the available foundation models dell'API watsonx.ai per ottenere informazioni sui modelli di fondazione disponibili.
Le informazioni sul modello restituite includono l'ID del modello, necessario per fare riferimento al modello nel codice.
Elenco dei modelli di fondazione disponibili
Il metodo Elenca i modelli di fondazione disponibili nell'API watsonx.ai ottiene informazioni sui modelli di fondazione distribuiti da IBM in watsonx.ai e che puoi immediatamente dedurre.
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-05-01'
Dopo aver ottenuto l'ID del modello, è possibile fare riferimento all'ID del modello nel codice in questo modo:
curl --request POST 'https://{cluster_url}/ml/v1/text/generation?version=2023-05-02'
-H 'Authorization: Bearer eyJhbGciOiJSUzUxM...'
-H 'Content-Type: application/json'
-H 'Accept: application/json'
--data-raw '{
"model_id": "google/flan-t5-xxl",
"input": "Tell me a story",
"project_id": "63dc4cf1-252f-424b-b52d-5cdd9814987f"
}'
Elenco dei modelli di fondazione personalizzati
Per ottenere un elenco dei modelli di fondazione personalizzati distribuiti a cui è possibile accedere, utilizzare il metodo seguente. Questo metodo richiede un token al portatore.
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v4/deployments?version=2024-12-12&type=custom_foundation_model'
Elenco dei modelli di distribuzione su richiesta
Per ottenere un elenco di modelli di fondazione forniti da IBM che si possono distribuire autonomamente, utilizzare il metodo seguente:
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'
Utilizzare l'ID modello restituito per distribuire il modello di base distribuibile su richiesta in uno spazio di distribuzione. Dopo aver distribuito il modello, è possibile fare l'inferenza del modello usando l'endpoint dell'API per la distribuzione.
Trovare gli ID dei modelli per l'inferenza dei modelli di fondazione forniti
Per trovare gli ID dei modelli di fondazione forniti, seguire questi link:
ID del modello per i modelli di fondazione deploy on demand
Dall'API REST di watsonx.ai, è possibile utilizzare il metodo Create a deployment per distribuire il modello di base, quindi utilizzare il metodo Deployments > Infer text per inferire il modello di base distribuito.
Per ulteriori informazioni, vedere Distribuzione e gestione dei modelli di fondazione distribuiti su richiesta con API REST.
Il seguente elenco mostra i valori da utilizzare nel parametro " {model_id}
" quando si distribuisce un modello di base "deploy on demand" dall'API.
granite-3-8b-base
ibm/granite-3-8b-base-curated
granite-7b-lab
ibm/granite-7b-lab-curated
granite-8b-japanese
ibm/granite-8b-japanese-curated
granite-20b-multilingual
ibm/granite-20b-multilingual-curated
granite-13b-chat-v2
ibm/granite-13b-chat-v2-curated
granite-13b-instruct-v2
ibm/granite-13b-instruct-v2-curated
granite-20b-code-base-schema-linking
ibm/granite-20b-code-base-schema-linking-curated
granite-20b-code-base-sql-gen
ibm/granite-20b-code-base-sql-gen-curated
allam-1-13b-instruct
ibm/allam-1-13b-instruct-curated
deepseek-r1-distill-llama-8b
deepseek-ai/deepseek-r1-distill-llama-8b-curated
deepseek-r1-distill-llama-70b
deepseek-ai/deepseek-r1-distill-llama-70b-curated
flan-t5-xl-3b
google/flan-t5-xl-curated
flan-t5-xxl-11b
google/flan-t5-xxl-curated
flan-ul2-20b
google/flan-ul2-curated
llama-2-13b-chat
meta-llama/llama-2-13b-chat-curated
llama-2-70b-chat
meta-llama/llama-2-70b-chat-curated
llama-3-8b-instruct
meta-llama/llama-3-8b-instruct-curated
llama-3-70b-instruct
meta-llama/llama-3-70b-instruct-curated
llama-3-1-8b
meta-llama/llama-3-1-8b-curated
llama-3-1-8b-instruct
meta-llama/llama-3-1-8b-instruct-curated
llama-3-3-70b-instruct
meta-llama/llama-3-3-70b-instruct-curated
llama-3-3-70b-instruct-hf
meta-llama/llama-3-3-70b-instruct-hf-curated
mixtral-8x7b-base
mistralai/mixtral-8x7b-base-curated
mixtral-8x7b-instruct-v01
mistralai/mixtral-8x7b-instruct-v01-curated
mistral-nemo-instruct-2407
mistralai/mistral-nemo-instruct-2407-curated
mt0-xxl-13b
bigscience/mt0-xxl-curated
Argomento principale: Coding generative AI solutions