0 / 0
Retourner à la version anglaise de la documentation

Test des services d'IA

Dernière mise à jour : 08 nov. 2024
Test des services d'IA

Après avoir créé votre service d'IA, vous pouvez tester la logique de codage de votre service d'IA en utilisant la bibliothèque client Python watsonx.ai

Tester les services d'IA avec la bibliothèque client Python

Pour tester localement la logique de votre service d'IA en utilisant la classe " RuntimeContext de la bibliothèque client Python watsonx.ai, procédez comme suit :

  1. Utilisez la classe " RuntimeContext de la bibliothèque client Python pour tester votre service d'IA localement :

    from ibm_watsonx_ai.deployments import RuntimeContext
    
    context = RuntimeContext(
        api_client=client, request_payload_json={}
    )
    
    # custom is optional argument which is specified during the time of creation of deployment
    custom_object = {"space_id": space_id}
    
    generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)
    
    

    Pour plus d'informations, voir " watsonx.ai Python Documentation de la bibliothèque du client pour l'utilisation du RuntimeContext pour les services d'IA.

  2. En fonction de votre cas d'utilisation, vous pouvez tester les fonctions " generate(), " generate_stream() ou " generate_batch() comme suit :

    • Pour tester la fonction generate() :

      context.request_payload_json = { "test": "ai_service inference payload"}
      print(generate(context))
      
    • Pour tester la fonction generate_stream() :

      context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]}
      for data in generate_stream(context):
          print(data)
      
    • Pour tester la fonction generate_batch() :

      input_data_references = [
          {
              "type": "connection_asset",
              "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"},
              "location": {
                  "bucket": "wml-v4-fvt-batch-pytorch-connection-input",
                  "file_name": "testing-123",
              },
          }
      ]
      output_data_reference = {
          "type": "data_asset",
          "location": {"name": "nb-pytorch_output.zip"},
      }
      
      generate_batch(input_data_references, output_data_reference)
      

En savoir plus

Sujet parent : Déployer des services d'IA avec le codage direct