資料の 英語版 に戻るAIサービスのテスト
AIサービスのテスト
最終更新: 2024年11月08日
AI サービスを作成した後、watsonx.ai Pythonクライアント・ライブラリを使用して、AI サービスのコーディング・ロジックをテストできます。
Pythonクライアント・ライブラリを使ったAIサービスのテスト
watsonx.ai Pythonクライアントライブラリの 'RuntimeContext
クラスを使用して、AI サービスのロジックをローカルでテストするには、以下の手順に従います:
AIサービスをローカルでテストするには、Pythonクライアント・ライブラリの'
RuntimeContext
クラスを使います:from ibm_watsonx_ai.deployments import RuntimeContext context = RuntimeContext( api_client=client, request_payload_json={} ) # custom is optional argument which is specified during the time of creation of deployment custom_object = {"space_id": space_id} generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)
詳細は「watsonx.ai「Pythonクライアント・ライブラリのドキュメント 「
RuntimeContext
AIサービスに使用する場合参照。使用するケースに応じて、次のように「
generate()
、「generate_stream()
、「generate_batch()
関数をテストすることができる:generate()関数をテストする:
context.request_payload_json = { "test": "ai_service inference payload"} print(generate(context))
generate_stream()関数をテストする:
context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]} for data in generate_stream(context): print(data)
generate_batch()関数をテストする:
input_data_references = [ { "type": "connection_asset", "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"}, "location": { "bucket": "wml-v4-fvt-batch-pytorch-connection-input", "file_name": "testing-123", }, } ] output_data_reference = { "type": "data_asset", "location": {"name": "nb-pytorch_output.zip"}, } generate_batch(input_data_references, output_data_reference)
詳細情報
親トピック ダイレクトコーディングによるAIサービスの展開