Después de crear su servicio de IA, puede probar la lógica de codificación de su servicio de IA utilizando la biblioteca de cliente Python watsonx.ai.
Pruebas de servicios de IA con la biblioteca cliente Python
Para probar la lógica de tu servicio de IA localmente utilizando la clase ' RuntimeContext
de la librería cliente watsonx.ai Python, sigue estos pasos:
Utiliza la clase '
RuntimeContext
de la librería cliente Python para probar tu servicio de IA localmente:from ibm_watsonx_ai.deployments import RuntimeContext context = RuntimeContext( api_client=client, request_payload_json={} ) # custom is optional argument which is specified during the time of creation of deployment custom_object = {"space_id": space_id} generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)
Para más información, consulte ' 'watsonx.ai ' Python documentación de la biblioteca cliente para utilizar '
RuntimeContext
para servicios de IA.Dependiendo de su caso de uso, puede probar las funciones '
generate()
, 'generate_stream()
, o 'generate_batch()
' de la siguiente manera:Para probar la función generate():
context.request_payload_json = { "test": "ai_service inference payload"} print(generate(context))
Para probar la función generate_stream():
context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]} for data in generate_stream(context): print(data)
Para probar la función generate_batch():
input_data_references = [ { "type": "connection_asset", "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"}, "location": { "bucket": "wml-v4-fvt-batch-pytorch-connection-input", "file_name": "testing-123", }, } ] output_data_reference = { "type": "data_asset", "location": {"name": "nb-pytorch_output.zip"}, } generate_batch(input_data_references, output_data_reference)
Más información
Tema principal: Despliegue de servicios de IA con codificación directa