0 / 0
Go back to the English version of the documentation
Podstawowe modele biblioteki Python
Last updated: 09 lis 2023
Podstawowe modele biblioteki Python

Modele podstawowe można wyświetlać w programie IBM watsonx.ai , korzystając z biblioteki Python .

 

Skorowidz biblioteki Python

 

Wymagania wstępne

Aby uruchomić niektóre przykłady w tym temacie, potrzebny jest klucz API i identyfikator projektu:

 

Identyfikatory modeli podstawowych dla interfejsów API

Należy określić model, który ma być używany w żądaniu. Poniższa lista przedstawia wartości, które mają być używane w parametrze {model_id} podczas odwoływania się do modelu fundamentalnego z poziomu interfejsu API.

  • flan-t5-xxl-11b

    google/flan-t5-xxl
    
  • flan-ul2-20b

    google/flan-ul2
    
  • gpt-neox-20b

    eleutherai/gpt-neox-20b
    
  • granite-13b-chat-v1

    ibm/granite-13b-chat-v1
    
  • granite-13b-instruct-v1

    ibm/granite-13b-instruct-v1
    
  • llama-2-13b-chat

    meta-llama/llama-2-13b-chat
    
  • llama-2-70b-chat

    meta-llama/llama-2-70b-chat
    
  • mpt-7b-instruct2

    ibm/mpt-7b-instruct2
    
  • mt0-xxl-13b

    bigscience/mt0-xxl
    
  • starcoder-15.5b

    bigcode/starcoder
    

 

Przykłady

Przykład 1: lista dostępnych modeli

Aby wyświetlić dostępne modele, można wyświetlić widok ModelTypes .

Python Python

from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
import json

print( json.dumps( ModelTypes._member_names_, indent=2 ) )

Przykładowe dane wyjściowe

[
  "FLAN_T5_XXL",
  "FLAN_UL2",
  "MT0_XXL",
  ...
]

 

Przykład 2: wyświetlanie szczegółów modelu

Szczegóły, takie jak krótki opis i limity modelu, można wyświetlić za pomocą programu get_details().

Python Python

from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
from ibm_watson_machine_learning.foundation_models import Model
import json

my_credentials = {
    "url"    : "https://us-south.ml.cloud.ibm.com",
    "apikey" : <my-IBM-Cloud-API-key>
}

model_id    = ModelTypes.MPT_7B_INSTRUCT2
gen_parms   = None
project_id  = <my-watsonx.ai-project-ID>
space_id    = None
verify      = False

model = Model( model_id, my_credentials, gen_parms, project_id, space_id, verify )

model_details = model.get_details()

print( json.dumps( model_details, indent=2 ) )
Uwaga:

Zastąp wartości <my-IBM-Cloud-API-key> i <my-project-ID> kluczem API i identyfikatorem projektu.

Przykładowe dane wyjściowe

{
  "model_id": "ibm/mpt-7b-instruct2",
  "label": "mpt-7b-instruct2",
  "provider": "IBM",
  "source": "Hugging Face",
  "short_description": "MPT-7B is a decoder-style transformer pretrained from 
scratch on 1T tokens of English text and code. This model was trained by IBM.",
  ...
}

 

Przykład 3: Pytanie o model z parametrami domyślnymi

Podpowiadanie modelu w celu wygenerowania odpowiedzi za pomocą programu generate().

Python Python

from ibm_watson_machine_learning.foundation_models.utils.enums import ModelTypes
from ibm_watson_machine_learning.foundation_models import Model
import json

my_credentials = { 
    "url"    : "https://us-south.ml.cloud.ibm.com", 
    "apikey" : <my-IBM-Cloud-API-key>
}      

model_id    = ModelTypes.FLAN_T5_XXL
gen_parms   = None
project_id  = <my-project-ID>
space_id    = None
verify      = False

model = Model( model_id, my_credentials, gen_parms, project_id, space_id, verify )   
 
prompt_txt = "In today's sales meeting, we "
gen_parms_override = None

generated_response = model.generate( prompt_txt, gen_parms_override )

print( json.dumps( generated_response, indent=2 ) )
Uwaga:

Zastąp wartości <my-IBM-Cloud-API-key> i <my-project-ID> kluczem API i identyfikatorem projektu.

Przykładowe dane wyjściowe

{
  "model_id": "google/flan-t5-xxl",
  "created_at": "2023-07-27T03:40:17.575Z",
  "results": [
    {
      "generated_text": "will discuss the new product line.",
      "generated_token_count": 8,
      "input_token_count": 10,
      "stop_reason": "EOS_TOKEN"
    }
  ],
  ...
}

 

Więcej inform.

 

Temat nadrzędny: Modele produktu Foundation

Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more