0 / 0
資料の 英語版 に戻る
AIサービスのテスト
最終更新: 2024年11月08日
AIサービスのテスト

AI サービスを作成した後、watsonx.ai Pythonクライアント・ライブラリを使用して、AI サービスのコーディング・ロジックをテストできます。

Pythonクライアント・ライブラリを使ったAIサービスのテスト

watsonx.ai Pythonクライアントライブラリの 'RuntimeContextクラスを使用して、AI サービスのロジックをローカルでテストするには、以下の手順に従います:

  1. AIサービスをローカルでテストするには、Pythonクライアント・ライブラリの'RuntimeContextクラスを使います:

    from ibm_watsonx_ai.deployments import RuntimeContext
    
    context = RuntimeContext(
        api_client=client, request_payload_json={}
    )
    
    # custom is optional argument which is specified during the time of creation of deployment
    custom_object = {"space_id": space_id}
    
    generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)
    
    

    詳細は「watsonx.ai「Pythonクライアント・ライブラリのドキュメント 「RuntimeContextAIサービスに使用する場合参照。

  2. 使用するケースに応じて、次のように「generate()、「generate_stream()、「generate_batch()関数をテストすることができる:

    • generate()関数をテストする:

      context.request_payload_json = { "test": "ai_service inference payload"}
      print(generate(context))
      
    • generate_stream()関数をテストする:

      context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]}
      for data in generate_stream(context):
          print(data)
      
    • generate_batch()関数をテストする:

      input_data_references = [
          {
              "type": "connection_asset",
              "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"},
              "location": {
                  "bucket": "wml-v4-fvt-batch-pytorch-connection-input",
                  "file_name": "testing-123",
              },
          }
      ]
      output_data_reference = {
          "type": "data_asset",
          "location": {"name": "nb-pytorch_output.zip"},
      }
      
      generate_batch(input_data_references, output_data_reference)
      

詳細情報

親トピック ダイレクトコーディングによるAIサービスの展開