Translation not up to date
Modele podstawowe można wyświetlać w programie IBM watsonx.ai , korzystając z biblioteki Python .
Skorowidz biblioteki Python
Wymagania wstępne
Aby uruchomić niektóre przykłady w tym temacie, potrzebny jest klucz API i identyfikator projektu:
Identyfikatory modeli podstawowych dla interfejsów API
Należy określić model, który ma być używany w żądaniu. Poniższa lista przedstawia wartości, które mają być używane w parametrze {model_id}
podczas odwoływania się do modelu fundamentalnego z poziomu interfejsu API.
flan-t5-xxl-11b
google/flan-t5-xxl
flan-ul2-20b
google/flan-ul2
gpt-neox-20b
eleutherai/gpt-neox-20b
granite-13b-chat-v1
ibm/granite-13b-chat-v1
granite-13b-instruct-v1
ibm/granite-13b-instruct-v1
llama-2-13b-chat
meta-llama/llama-2-13b-chat
llama-2-70b-chat
meta-llama/llama-2-70b-chat
mpt-7b-instruct2
ibm/mpt-7b-instruct2
mt0-xxl-13b
bigscience/mt0-xxl
starcoder-15.5b
bigcode/starcoder
Przykłady
Przykład 1: lista dostępnych modeli
Aby wyświetlić dostępne modele, można wyświetlić widok ModelTypes
.
Python Python
from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
import json
print( json.dumps( ModelTypes._member_names_, indent=2 ) )
Przykładowe dane wyjściowe
[
"FLAN_T5_XXL",
"FLAN_UL2",
"MT0_XXL",
...
]
Przykład 2: wyświetlanie szczegółów modelu
Szczegóły, takie jak krótki opis i limity modelu, można wyświetlić za pomocą programu get_details()
.
Python Python
from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
from ibm_watson_machine_learning.foundation_models import Model
import json
my_credentials = {
"url" : "https://us-south.ml.cloud.ibm.com",
"apikey" : <my-IBM-Cloud-API-key>
}
model_id = ModelTypes.MPT_7B_INSTRUCT2
gen_parms = None
project_id = <my-watsonx.ai-project-ID>
space_id = None
verify = False
model = Model( model_id, my_credentials, gen_parms, project_id, space_id, verify )
model_details = model.get_details()
print( json.dumps( model_details, indent=2 ) )
Zastąp wartości <my-IBM-Cloud-API-key>
i <my-project-ID>
kluczem API i identyfikatorem projektu.
Przykładowe dane wyjściowe
{
"model_id": "ibm/mpt-7b-instruct2",
"label": "mpt-7b-instruct2",
"provider": "IBM",
"source": "Hugging Face",
"short_description": "MPT-7B is a decoder-style transformer pretrained from
scratch on 1T tokens of English text and code. This model was trained by IBM.",
...
}
Przykład 3: Pytanie o model z parametrami domyślnymi
Podpowiadanie modelu w celu wygenerowania odpowiedzi za pomocą programu generate()
.
Python Python
from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
from ibm_watson_machine_learning.foundation_models import Model
import json
my_credentials = {
"url" : "https://us-south.ml.cloud.ibm.com",
"apikey" : <my-IBM-Cloud-API-key>
}
model_id = ModelTypes.FLAN_T5_XXL
gen_parms = None
project_id = <my-project-ID>
space_id = None
verify = False
model = Model( model_id, my_credentials, gen_parms, project_id, space_id, verify )
prompt_txt = "In today's sales meeting, we "
gen_parms_override = None
generated_response = model.generate( prompt_txt, gen_parms_override )
print( json.dumps( generated_response, indent=2 ) )
Zastąp wartości <my-IBM-Cloud-API-key>
i <my-project-ID>
kluczem API i identyfikatorem projektu.
Przykładowe dane wyjściowe
{
"model_id": "google/flan-t5-xxl",
"created_at": "2023-07-27T03:40:17.575Z",
"results": [
{
"generated_text": "will discuss the new product line.",
"generated_token_count": 8,
"input_token_count": 10,
"stop_reason": "EOS_TOKEN"
}
],
...
}
Więcej inform.
Temat nadrzędny: Modele produktu Foundation