Informationen zum Fundamentmodell erhalten
Fordern Sie eine Liste der eingesetzten Stiftungsmodelle unter watsonx.ai an und filtern Sie die Liste auf nützliche Weise.
Entwicklungsmöglichkeiten
Sie können Informationen über die verfügbaren Fundamentmodelle erhalten, indem Sie diese Programmiermethoden verwenden:
Alternativ können Sie die Liste der Stiftungsmodelle im Ressourcen-Hub in der Benutzeroberfläche watsonx.ai anzeigen und nach diesen filtern. Weitere Informationen finden Sie in den folgenden Ressourcen:
REST-API
Sie können die Methode "Verfügbare Fundamentmodelle auflisten " der API watsonx.ai verwenden, um Informationen zu den verfügbaren Fundamentmodellen zu erhalten.
Die zurückgegebenen Modellinformationen enthalten die Modell-ID, die Sie benötigen, um das Modell in Ihrem Code zu referenzieren.
Liste der verfügbaren Fundamentmodelle
Die Methode List the available foundation models in der watsonx.ai API holt sich Informationen über die Fundamentmodelle, die von IBM in watsonx.ai zur Verfügung gestellt werden und die Sie sofort für Inferenzen verwenden können.
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-05-01'
Nachdem Sie die Modell-ID erhalten haben, können Sie die Modell-ID in Ihrem Code wie folgt referenzieren:
curl --request POST 'https://{cluster_url}/ml/v1/text/generation?version=2023-05-02'
-H 'Authorization: Bearer eyJhbGciOiJSUzUxM...'
-H 'Content-Type: application/json'
-H 'Accept: application/json'
--data-raw '{
"model_id": "google/flan-t5-xxl",
"input": "Tell me a story",
"project_id": "63dc4cf1-252f-424b-b52d-5cdd9814987f"
}'
Listen Sie die benutzerdefinierten Fundamentmodelle auf
Um eine Liste der bereitgestellten benutzerdefinierten Stiftungsmodelle zu erhalten, auf die Sie zugreifen können, verwenden Sie die folgende Methode. Für diese Methode ist ein Träger-Token erforderlich.
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v4/deployments?version=2024-12-12&type=custom_foundation_model'
Führen Sie die Modelle für den Einsatz auf Abruf auf
Um eine Liste der von IBM bereitgestellten Grundmodelle zu erhalten, die Sie selbst einsetzen können, gehen Sie wie folgt vor:
curl -X GET \
'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'
Verwenden Sie die zurückgegebene Modell-ID, um das Deploy-on-Demand-Foundation-Modell in einem Bereitstellungsbereich bereitzustellen. Nachdem Sie das Modell bereitgestellt haben, können Sie das Modell mithilfe des API-Endpunkts für Ihre Bereitstellung ableiten.
Ermittlung von Modell-IDs für die Ableitung der bereitgestellten Basismodelle
Um die Modell-IDs für die bereitgestellten Fundamentmodelle zu finden, folgen Sie diesen Links:
Modell-IDs für die Bereitstellung von On-Demand-Stiftungsmodellen
Über die REST-API von watsonx.ai können Sie die Bereitstellungsmethode "Create a deployment" verwenden, um das Grundmodell bereitzustellen, und dann die Textmethode "Deployments > Infer" verwenden, um Ihr bereitgestelltes Grundmodell zu schließen.
Weitere Informationen finden Sie unter Bereitstellen und Verwalten von Foundation-Modellen, die mit der REST-API auf Abruf bereitgestellt werden.
Die folgende Liste zeigt die Werte, die im {model_id}
-Parameter verwendet werden müssen, wenn Sie ein Deploy-on-Demand-Foundation-Modell über die API bereitstellen.
granite-3-1-8b-base
ibm/granite-3-1-8b-base-curated
granite-3-3-8b-instruct-curated
ibm/granite-3-3-2b-instruct-curated
granite-3-3-2b-instruct-curated
ibm/granite-3-3-2b-instruct-curated
granite-3-2-8b-instruct
ibm/granite-3-2-8b-instruct-curated
granite-3-8b-base
ibm/granite-3-8b-base-curated
granite-7b-lab
ibm/granite-7b-lab-curated
granite-8b-japanese
ibm/granite-8b-japanese-curated
granite-20b-multilingual
ibm/granite-20b-multilingual-curated
granite-13b-chat-v2
ibm/granite-13b-chat-v2-curated
granite-13b-instruct-v2
ibm/granite-13b-instruct-v2-curated
granite-20b-code-base-schema-linking
ibm/granite-20b-code-base-schema-linking-curated
granite-20b-code-base-sql-gen
ibm/granite-20b-code-base-sql-gen-curated
allam-1-13b-instruct
ibm/allam-1-13b-instruct-curated
codellama-34b-instruct-hf
meta-llama/codellama-34b-instruct-hf-curated
deepseek-r1-distill-llama-8b
deepseek-ai/deepseek-r1-distill-llama-8b-curated
deepseek-r1-distill-llama-70b
deepseek-ai/deepseek-r1-distill-llama-70b-curated
eurollm-1-7b-instruct
utter-project/eurollm-1-7b-instruct-curated
eurollm-9b-instruct
utter-project/eurollm-9b-instruct-curated
flan-t5-xl-3b
google/flan-t5-xl-curated
flan-t5-xxl-11b
google/flan-t5-xxl-curated
flan-ul2-20b
google/flan-ul2-curated
llama-2-13b-chat
meta-llama/llama-2-13b-chat-curated
llama-2-70b-chat
meta-llama/llama-2-70b-chat-curated
llama-3-8b-instruct
meta-llama/llama-3-8b-instruct-curated
llama-3-70b-instruct
meta-llama/llama-3-70b-instruct-curated
llama-3-1-8b
meta-llama/llama-3-1-8b-curated
llama-3-1-8b-instruct
meta-llama/llama-3-1-8b-instruct-curated
llama-3-2-11b-vision-instruct
meta-llama/llama-3-2-11b-vision-instruct-curated
llama-3-3-70b-instruct
meta-llama/llama-3-3-70b-instruct-curated
llama-3-3-70b-instruct-hf
meta-llama/llama-3-3-70b-instruct-hf-curated
mixtral-8x7b-base
mistralai/mixtral-8x7b-base-curated
mixtral-8x7b-instruct-v01
mistralai/mixtral-8x7b-instruct-v01-curated
mistral-nemo-instruct-2407
mistralai/mistral-nemo-instruct-2407-curated
mt0-xxl-13b
bigscience/mt0-xxl-curated
poro-34b-chat
lumiopen/poro-34b-chat-curated
Übergeordnetes Thema: Coding generative AI-Lösungen