Translation not up to date
Python kitaplığını kullanarak IBM watsonx.ai programlı olarak temel modellerini sorabilirsiniz.
Python kitaplık başvurusu
Önkoşullar
Bu konudaki bazı örnekleri çalıştırmak için bir API anahtarı ve bir proje tanıtıcısı gerekir:
API ' ler için temel model tanıtıcıları
İstekte kullanmak istediğiniz modeli belirtmelisiniz. Aşağıdaki listede, API ' den bir temel modele başvurduğunuzda {model_id}
parametresinde kullanılacak değerler gösterilmektedir.
flan-t5-xxl-11b
google/flan-t5-xxl
flan-ul2-20b
google/flan-ul2
gpt-neox-20b
eleutherai/gpt-neox-20b
granite-13b-chat-v1
ibm/granite-13b-chat-v1
granite-13b-instruct-v1
ibm/granite-13b-instruct-v1
llama-2-13b-chat
meta-llama/llama-2-13b-chat
llama-2-70b-chat
meta-llama/llama-2-70b-chat
mpt-7b-instruct2
ibm/mpt-7b-instruct2
mt0-xxl-13b
bigscience/mt0-xxl
starcoder-15.5b
bigcode/starcoder
Örnekler
Örnek 1: Kullanılabilir modelleri listele
Kullanılabilir modelleri görmek için ModelTypes
görünümünü görüntüleyebilirsiniz.
Python kodu
from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
import json
print( json.dumps( ModelTypes._member_names_, indent=2 ) )
Örnek çıkış
[
"FLAN_T5_XXL",
"FLAN_UL2",
"MT0_XXL",
...
]
Örnek 2: Bir modelin ayrıntılarını görüntüleme
get_details()
kullanarak kısa açıklama ve model sınırları gibi ayrıntıları görüntüleyebilirsiniz.
Python kodu
from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
from ibm_watson_machine_learning.foundation_models import Model
import json
my_credentials = {
"url" : "https://us-south.ml.cloud.ibm.com",
"apikey" : <my-IBM-Cloud-API-key>
}
model_id = ModelTypes.MPT_7B_INSTRUCT2
gen_parms = None
project_id = <my-watsonx.ai-project-ID>
space_id = None
verify = False
model = Model( model_id, my_credentials, gen_parms, project_id, space_id, verify )
model_details = model.get_details()
print( json.dumps( model_details, indent=2 ) )
<my-IBM-Cloud-API-key>
ve <my-project-ID>
değerini API anahtarınız ve proje tanıtıcınızla değiştirin.
Örnek çıkış
{
"model_id": "ibm/mpt-7b-instruct2",
"label": "mpt-7b-instruct2",
"provider": "IBM",
"source": "Hugging Face",
"short_description": "MPT-7B is a decoder-style transformer pretrained from
scratch on 1T tokens of English text and code. This model was trained by IBM.",
...
}
Örnek 3: Varsayılan parametrelerle bir modele bilgi isteminde bulun
generate()
kullanarak bir yanıt oluşturmak için bir modelden bilgi isteminde bulun.
Python kodu
from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
from ibm_watson_machine_learning.foundation_models import Model
import json
my_credentials = {
"url" : "https://us-south.ml.cloud.ibm.com",
"apikey" : <my-IBM-Cloud-API-key>
}
model_id = ModelTypes.FLAN_T5_XXL
gen_parms = None
project_id = <my-project-ID>
space_id = None
verify = False
model = Model( model_id, my_credentials, gen_parms, project_id, space_id, verify )
prompt_txt = "In today's sales meeting, we "
gen_parms_override = None
generated_response = model.generate( prompt_txt, gen_parms_override )
print( json.dumps( generated_response, indent=2 ) )
<my-IBM-Cloud-API-key>
ve <my-project-ID>
değerini API anahtarınız ve proje tanıtıcınızla değiştirin.
Örnek çıkış
{
"model_id": "google/flan-t5-xxl",
"created_at": "2023-07-27T03:40:17.575Z",
"results": [
{
"generated_text": "will discuss the new product line.",
"generated_token_count": 8,
"input_token_count": 10,
"stop_reason": "EOS_TOKEN"
}
],
...
}
Daha fazla bilgi
Üst konu: Foundation modelleri