Informationen zum Fundamentmodell erhalten

Letzte Aktualisierung: 23. Apr. 2025
Informationen zum Fundamentmodell erhalten

Fordern Sie eine Liste der eingesetzten Stiftungsmodelle unter watsonx.ai an und filtern Sie die Liste auf nützliche Weise.

Entwicklungsmöglichkeiten

Sie können Informationen über die verfügbaren Fundamentmodelle erhalten, indem Sie diese Programmiermethoden verwenden:

Alternativ können Sie die Liste der Stiftungsmodelle im Ressourcen-Hub in der Benutzeroberfläche watsonx.ai anzeigen und nach diesen filtern. Weitere Informationen finden Sie in den folgenden Ressourcen:

REST-API

Sie können die Methode "Verfügbare Fundamentmodelle auflisten " der API watsonx.ai verwenden, um Informationen zu den verfügbaren Fundamentmodellen zu erhalten.

Die zurückgegebenen Modellinformationen enthalten die Modell-ID, die Sie benötigen, um das Modell in Ihrem Code zu referenzieren.

Liste der verfügbaren Fundamentmodelle

Die Methode List the available foundation models in der watsonx.ai API holt sich Informationen über die Fundamentmodelle, die von IBM in watsonx.ai zur Verfügung gestellt werden und die Sie sofort für Inferenzen verwenden können.

curl -X GET \
  'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-05-01'

Nachdem Sie die Modell-ID erhalten haben, können Sie die Modell-ID in Ihrem Code wie folgt referenzieren:

curl --request POST 'https://{cluster_url}/ml/v1/text/generation?version=2023-05-02'
-H 'Authorization: Bearer eyJhbGciOiJSUzUxM...'
-H 'Content-Type: application/json'
-H 'Accept: application/json'
--data-raw '{
  "model_id": "google/flan-t5-xxl",
  "input": "Tell me a story",
  "project_id": "63dc4cf1-252f-424b-b52d-5cdd9814987f"
}'

Listen Sie die benutzerdefinierten Fundamentmodelle auf

Um eine Liste der bereitgestellten benutzerdefinierten Stiftungsmodelle zu erhalten, auf die Sie zugreifen können, verwenden Sie die folgende Methode. Für diese Methode ist ein Träger-Token erforderlich.

curl -X GET \
  'https://{region}.ml.cloud.ibm.com/ml/v4/deployments?version=2024-12-12&type=custom_foundation_model'

Führen Sie die Modelle für den Einsatz auf Abruf auf

Um eine Liste der von IBM bereitgestellten Grundmodelle zu erhalten, die Sie selbst einsetzen können, gehen Sie wie folgt vor:

curl -X GET \
  'https://{region}.ml.cloud.ibm.com/ml/v1/foundation_model_specs?version=2024-12-10&filters=curated'

Verwenden Sie die zurückgegebene Modell-ID, um das Deploy-on-Demand-Foundation-Modell in einem Bereitstellungsbereich bereitzustellen. Nachdem Sie das Modell bereitgestellt haben, können Sie das Modell mithilfe des API-Endpunkts für Ihre Bereitstellung ableiten.

Ermittlung von Modell-IDs für die Ableitung der bereitgestellten Basismodelle

Um die Modell-IDs für die bereitgestellten Fundamentmodelle zu finden, folgen Sie diesen Links:

Modell-IDs für die Bereitstellung von On-Demand-Stiftungsmodellen

Achtung : Denken Sie daran, dass Sie ein Deploy-on-Demand-Foundation-Modell nicht anhand seiner Modell-ID erkennen können. Sie verwenden die Modell-ID nur, um das Modell bereitzustellen. Nachdem Sie das Modell bereitgestellt haben, können Sie das Modell mithilfe des API-Endpunkts für Ihre Bereitstellung ableiten.

Über die REST-API von watsonx.ai können Sie die Bereitstellungsmethode "Create a deployment" verwenden, um das Grundmodell bereitzustellen, und dann die Textmethode "Deployments > Infer" verwenden, um Ihr bereitgestelltes Grundmodell zu schließen.

Weitere Informationen finden Sie unter Bereitstellen und Verwalten von Foundation-Modellen, die mit der REST-API auf Abruf bereitgestellt werden.

Die folgende Liste zeigt die Werte, die im {model_id} -Parameter verwendet werden müssen, wenn Sie ein Deploy-on-Demand-Foundation-Modell über die API bereitstellen.

  • granite-3-1-8b-base

    ibm/granite-3-1-8b-base-curated
    
  • granite-3-3-8b-instruct-curated

    ibm/granite-3-3-2b-instruct-curated
    
  • granite-3-3-2b-instruct-curated

    ibm/granite-3-3-2b-instruct-curated
    
  • granite-3-2-8b-instruct

    ibm/granite-3-2-8b-instruct-curated
    
  • granite-3-8b-base

    ibm/granite-3-8b-base-curated
    
  • granite-7b-lab

    ibm/granite-7b-lab-curated
    
  • granite-8b-japanese

    ibm/granite-8b-japanese-curated
    
  • granite-20b-multilingual

    ibm/granite-20b-multilingual-curated
    
  • granite-13b-chat-v2

    ibm/granite-13b-chat-v2-curated
    
  • granite-13b-instruct-v2

    ibm/granite-13b-instruct-v2-curated
    
  • granite-20b-code-base-schema-linking

    ibm/granite-20b-code-base-schema-linking-curated
    
  • granite-20b-code-base-sql-gen

    ibm/granite-20b-code-base-sql-gen-curated
    
  • allam-1-13b-instruct

    ibm/allam-1-13b-instruct-curated
    
  • codellama-34b-instruct-hf

    meta-llama/codellama-34b-instruct-hf-curated
    
  • deepseek-r1-distill-llama-8b

    deepseek-ai/deepseek-r1-distill-llama-8b-curated
    
  • deepseek-r1-distill-llama-70b

    deepseek-ai/deepseek-r1-distill-llama-70b-curated
    
  • eurollm-1-7b-instruct

    utter-project/eurollm-1-7b-instruct-curated
    
  • eurollm-9b-instruct

    utter-project/eurollm-9b-instruct-curated
    
  • flan-t5-xl-3b

    google/flan-t5-xl-curated
    
  • flan-t5-xxl-11b

    google/flan-t5-xxl-curated
    
  • flan-ul2-20b

    google/flan-ul2-curated
    
  • llama-2-13b-chat

    meta-llama/llama-2-13b-chat-curated
    
  • llama-2-70b-chat

    meta-llama/llama-2-70b-chat-curated
    
  • llama-3-8b-instruct

    meta-llama/llama-3-8b-instruct-curated
    
  • llama-3-70b-instruct

    meta-llama/llama-3-70b-instruct-curated
    
  • llama-3-1-8b

    meta-llama/llama-3-1-8b-curated
    
  • llama-3-1-8b-instruct

    meta-llama/llama-3-1-8b-instruct-curated
    
  • llama-3-2-11b-vision-instruct

    meta-llama/llama-3-2-11b-vision-instruct-curated
    
  • llama-3-3-70b-instruct

    meta-llama/llama-3-3-70b-instruct-curated
    
  • llama-3-3-70b-instruct-hf

    meta-llama/llama-3-3-70b-instruct-hf-curated
    
  • mixtral-8x7b-base

    mistralai/mixtral-8x7b-base-curated
    
  • mixtral-8x7b-instruct-v01

    mistralai/mixtral-8x7b-instruct-v01-curated
    
  • mistral-nemo-instruct-2407

    mistralai/mistral-nemo-instruct-2407-curated
    
  • mt0-xxl-13b

    bigscience/mt0-xxl-curated
    
  • poro-34b-chat

    lumiopen/poro-34b-chat-curated
    

Übergeordnetes Thema: Coding generative AI-Lösungen