Test des services d'IA
Après avoir créé votre service d'IA, vous pouvez tester la logique de codage de votre service d'IA en utilisant la bibliothèque client Python watsonx.ai
Tester les services d'IA avec la bibliothèque client Python
Pour tester localement la logique de votre service d'IA en utilisant la classe " RuntimeContext
de la bibliothèque client Python watsonx.ai, procédez comme suit :
Utilisez la classe "
RuntimeContext
de la bibliothèque client Python pour tester votre service d'IA localement :from ibm_watsonx_ai.deployments import RuntimeContext context = RuntimeContext( api_client=client, request_payload_json={} ) # custom is optional argument which is specified during the time of creation of deployment custom_object = {"space_id": space_id} generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)
Pour plus d'informations, voir " watsonx.ai Python Documentation de la bibliothèque du client pour l'utilisation du
RuntimeContext
pour les services d'IA.En fonction de votre cas d'utilisation, vous pouvez tester les fonctions "
generate()
, "generate_stream()
ou "generate_batch()
comme suit :Pour tester la fonction generate() :
context.request_payload_json = { "test": "ai_service inference payload"} print(generate(context))
Pour tester la fonction generate_stream() :
context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]} for data in generate_stream(context): print(data)
Pour tester la fonction generate_batch() :
input_data_references = [ { "type": "connection_asset", "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"}, "location": { "bucket": "wml-v4-fvt-batch-pytorch-connection-input", "file_name": "testing-123", }, } ] output_data_reference = { "type": "data_asset", "location": {"name": "nb-pytorch_output.zip"}, } generate_batch(input_data_references, output_data_reference)
En savoir plus
Sujet parent : Déployer des services d'IA avec le codage direct