Quando si scrive codice che interagisce con un foundation model, è necessario fare riferimento al foundation model con il suo ID modello.
È possibile fare riferimento a un foundation model tramite il suo ID modello quando si eseguono le seguenti operazioni:
- Inferenza un foundation model che viene distribuito da IBM. Vedere gli ID del modello Foundation per l'inferenza dall'API.
- Implementare un foundation model "deploy on demand". Vedere gli ID del modello Foundation per la distribuzione dall'API.
ID del modello della Fondazione per l'inferenza dall'API
Utilizzare il metodo REST List the available foundation models (Elenco dei modelli di fondazione disponibili ) per ottenere il '{model_id}
di un foundation model e quindi specificare l'ID del modello come stringa nel codice.
Per informazioni su come ottenere gli ID dei modelli utilizzando la libreria Python, vedere Ottieni informazioni sui modelli di fondazione disponibili in modo programmatico.
ID del modello per l'inferenza
L'elenco seguente mostra i valori da utilizzare nel parametro {model_id}
quando si inferisce un foundation model distribuito da IBM dall'API.
Per gli ID dei modelli di fondazione deploy on demand, vedere ID del modello della Fondazione per la distribuzione dall'API. Per dedurre un foundation model deploy on demand utilizzando l'API, è necessario specificare l'ID di deploy per il modello, non l'ID del modello.
all-minilm-l6-v2
sentence-transformers/all-minilm-l6-v2
all-minilm-l12-v2
sentence-transformers/all-minilm-l12-v2
allam-1-13b-instruct
sdaia/allam-1-13b-instruct
codellama-34b-instruct-hf
codellama/codellama-34b-instruct-hf
elyza-japanese-llama-2-7b-instruct
elyza/elyza-japanese-llama-2-7b-instruct
flan-t5-xxl-11b
google/flan-t5-xxl
flan-ul2-20b
google/flan-ul2
granite-7b-lab
ibm/granite-7b-lab
granite-8b-japanese
ibm/granite-8b-japanese
granite-13b-chat-v2
ibm/granite-13b-chat-v2
granite-13b-instruct-v2
ibm/granite-13b-instruct-v2
granite-20b-multilingual
ibm/granite-20b-multilingual
granite-3-2b-instruct
ibm/granite-3-2b-instruct
granite-3-8b-instruct
ibm/granite-3-8b-instruct
granite-guardian-3-2b
ibm/granite-guardian-3-2b
granite-guardian-3-8b
ibm/granite-guardian-3-8b
granite-3b-code-instruct
ibm/granite-3b-code-instruct
granite-8b-code-instruct
ibm/granite-8b-code-instruct
granite-20b-code-instruct
ibm/granite-20b-code-instruct
granite-34b-code-instruct
ibm/granite-34b-code-instruct
jais-13b-chat
core42/jais-13b-chat
llama-3-3-70b-instruct
meta-llama/llama-3-3-70b-instruct
llama-3-2-1b-instruct
meta-llama/llama-3-2-1b-instruct
llama-3-2-3b-instruct
meta-llama/llama-3-2-3b-instruct
llama-3-2-11b-vision-instruct
meta-llama/llama-3-2-11b-vision-instruct
llama-3-2-90b-vision-instruct
meta-llama/llama-3-2-90b-vision-instruct
llama-guard-3-11b-instruct
meta-llama/llama-guard-3-11b-vision
llama-3-1-8b-instruct
meta-llama/llama-3-1-8b-instruct
llama-3-1-70b-instruct
meta-llama/llama-3-1-70b-instruct
llama-3-405b-instruct
meta-llama/llama-3-405b-instruct
llama-3-8b-instruct
meta-llama/llama-3-8b-instruct
llama-3-70b-instruct
meta-llama/llama-3-70b-instruct
llama-2-13b-chat
meta-llama/llama-2-13b-chat
llama-2-70b-chat
meta-llama/llama-2-70b-chat
llama2-13b-dpo-v7
mnci/llama2-13b-dpo-v7
mistral-large
mistralai/mistral-large
mixtral-8x7b-instruct-v01
mistralai/mixtral-8x7b-instruct-v01
ms-marco-minilm-l-12-v2
cross-encoder/ms-marco-minilm-l-12-v2
mt0-xxl-13b
bigscience/mt0-xxl
multilingual-e5-large
intfloat/multilingual-e5-large
pixtral-12b
mistralai/pixtral-12b
slate-30m-english-rtrvr
ibm/slate-30m-english-rtrvr
slate-30m-english-rtrvr-v2
ibm/slate-30m-english-rtrvr-v2
slate-125m-english-rtrvr
ibm/slate-30m-english-rtrvr
slate-125m-english-rtrvr-v2
ibm/slate-30m-english-rtrvr-v2
ID del modello della Fondazione per la distribuzione dall'API
Per ottenere programmaticamente un elenco di modelli di fondazione che possono essere distribuiti su richiesta, specificare il parametro filters=curated
quando si invia una richiesta del metodo REST API List the available foundation models.
Ad esempio:
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'
Dall'API REST di watsonx.ai, è possibile utilizzare il metodo Create a deployment per distribuire il foundation model e quindi utilizzare il metodo Deployments > Infer text per dedurre il foundation model distribuito.
Per ulteriori informazioni, vedere Distribuzione e gestione dei modelli di fondazione distribuiti su richiesta con API REST.
ID modello per la distribuzione
L'elenco seguente mostra i valori da utilizzare nel parametro {model_id}
quando si distribuisce un foundation model deploy on demand dall'API.
granite-3-8b-base
ibm/granite-3-8b-base-curated
granite-13b-chat-v2
ibm/granite-13b-chat-v2-curated
granite-13b-instruct-v2
ibm/granite-13b-instruct-v2-curated
granite-20b-code-base-schema-linking
ibm/granite-20b-code-base-schema-linking-curated
granite-20b-code-base-sql-gen
ibm/granite-20b-code-base-sql-gen-curated
flan-t5-xl-3b
google/flan-t5-xl-curated
flan-t5-xxl-11b
google/flan-t5-xxl-curated
flan-ul2-20b
google/flan-ul2-curated
llama-2-13b-chat
meta-llama/llama-2-13b-chat-curated
llama-2-70b-chat
meta-llama/llama-2-70b-chat-curated
llama-3-8b-instruct
meta-llama/llama-3-8b-instruct-curated
llama-3-70b-instruct
meta-llama/llama-3-70b-instruct-curated
llama-3-1-8b
meta-llama/llama-3-1-8b-curated
llama-3-1-8b-instruct
meta-llama/llama-3-1-8b-instruct-curated
llama-3-3-70b-instruct
meta-llama/llama-3-3-70b-instruct-curated
llama-3-3-70b-instruct-hf
meta-llama/llama-3-3-70b-instruct-hf-curated
mixtral-8x7b-base
mistralai/mixtral-8x7b-base-curated
mixtral-8x7b-instruct-v01
mistralai/mixtral-8x7b-instruct-v01-curated
mistral-nemo-instruct-2407
mistralai/mistral-nemo-instruct-2407-curated
mt0-xxl-13b
bigscience/mt0-xxl-curated
Argomento principale: Coding generative AI solutions