0 / 0
Torna alla versione inglese della documentazione

Come ottenere informazioni sui modelli di base disponibili in modo programmatico

Ultimo aggiornamento: 03 feb 2025
Come ottenere informazioni sui modelli di base disponibili in modo programmatico

Scopri quali modelli di base sono disponibili per l'utilizzo in IBM watsonx.ai.

La libreria watsonx.ai Python ha una classe di aiuto per fare riferimento agli ID e ai nomi dei modelli. Per ulteriori informazioni, vedere 'TextModels.

Il codice seguente utilizza la classe helper TextModels per elencare gli ID dei modelli disponibili.

Python

from ibm_watsonx_ai import APIClient
from ibm_watsonx_ai import Credentials

credentials = Credentials(
                   url = "https://{region}.ml.cloud.ibm.com",
                   api_key = {my-IBM-Cloud-API-key},
                  )

api_client = APIClient(credentials)

api_client.foundation_models.TextModels.show()

Output di esempio

{'GRANITE_13B_CHAT_V2': 'ibm/granite-13b-chat-v2',
'GRANITE_13B_INSTRUCT_V2': 'ibm/granite-13b-instruct-v2',
...
}

 

Esempio: Visualizzazione dei dettagli di un foundation model

È possibile visualizzare i dettagli, come una breve descrizione e i limiti foundation model, utilizzando 'get_details().

Python

from ibm_watsonx_ai.foundation_models import ModelInference
import json
model_id    = api_client.foundation_models.TextModels.FLAN_T5_XXL
project_id  = {my-project-ID}

model = ModelInference(model_id=model_id, project_id=project_id, api_client=api_client)
model_details = model.get_details()

print( json.dumps( model_details, indent=2 ) )
Nota:

Sostituire {region}, {my-IBM-Cloud-API-key}e {my-project-ID} con valori validi per il proprio ambiente.

Output di esempio

{
  "model_id": "google/flan-t5-xxl",
  "label": "flan-t5-xxl-11b",
  "provider": "Google",
  "source": "Hugging Face",
  "short_description": "flan-t5-xxl is an 11 billion parameter model based on the Flan-T5 family.",
  ...
}

Il seguente esempio di codice utilizza l'ID di un foundation model per visualizzare i dettagli del modello.

import json

model_id = api_client.foundation_models.TextModels.FLAN_T5_XXL
model_details = api_client.foundation_models.get_model_specs(model_id)

print( json.dumps( model_details, indent=2 ) )

È possibile specificare model_id nelle richieste di inferenza come segue:

model = ModelInference(
  model_id="google/flan-ul2",...
  )

Argomento principale: Python Python