0 / 0
Volver a la versión inglesa de la documentación
Probar los servicios de IA
Última actualización: 08 nov 2024
Probar los servicios de IA

Después de crear su servicio de IA, puede probar la lógica de codificación de su servicio de IA utilizando la biblioteca de cliente Python watsonx.ai.

Pruebas de servicios de IA con la biblioteca cliente Python

Para probar la lógica de tu servicio de IA localmente utilizando la clase ' RuntimeContext de la librería cliente watsonx.ai Python, sigue estos pasos:

  1. Utiliza la clase ' RuntimeContext de la librería cliente Python para probar tu servicio de IA localmente:

    from ibm_watsonx_ai.deployments import RuntimeContext
    
    context = RuntimeContext(
        api_client=client, request_payload_json={}
    )
    
    # custom is optional argument which is specified during the time of creation of deployment
    custom_object = {"space_id": space_id}
    
    generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)
    
    

    Para más información, consulte ' 'watsonx.ai ' Python documentación de la biblioteca cliente para utilizar ' RuntimeContext para servicios de IA.

  2. Dependiendo de su caso de uso, puede probar las funciones ' generate(), ' generate_stream(), o ' generate_batch() ' de la siguiente manera:

    • Para probar la función generate():

      context.request_payload_json = { "test": "ai_service inference payload"}
      print(generate(context))
      
    • Para probar la función generate_stream():

      context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]}
      for data in generate_stream(context):
          print(data)
      
    • Para probar la función generate_batch():

      input_data_references = [
          {
              "type": "connection_asset",
              "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"},
              "location": {
                  "bucket": "wml-v4-fvt-batch-pytorch-connection-input",
                  "file_name": "testing-123",
              },
          }
      ]
      output_data_reference = {
          "type": "data_asset",
          "location": {"name": "nb-pytorch_output.zip"},
      }
      
      generate_batch(input_data_references, output_data_reference)
      

Más información

Tema principal: Despliegue de servicios de IA con codificación directa

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información