0 / 0
영어 버전 문서로 돌아가기
AI 서비스 테스트
마지막 업데이트 날짜: 2024년 11월 08일
AI 서비스 테스트

AI 서비스를 생성한 후에는 watsonx.ai Python 클라이언트 라이브러리를 사용하여 AI 서비스의 코딩 로직을 테스트할 수 있습니다.

Python 클라이언트 라이브러리로 AI 서비스 테스트

watsonx.ai Python 클라이언트 라이브러리의 ' RuntimeContext ' 클래스를 사용하여 로컬에서 AI 서비스의 로직을 테스트하려면 다음 단계를 따르세요:

  1. Python 클라이언트 라이브러리의 ' RuntimeContext ' 클래스를 사용하여 로컬에서 AI 서비스를 테스트하세요:

    from ibm_watsonx_ai.deployments import RuntimeContext
    
    context = RuntimeContext(
        api_client=client, request_payload_json={}
    )
    
    # custom is optional argument which is specified during the time of creation of deployment
    custom_object = {"space_id": space_id}
    
    generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)
    
    

    자세한 내용은 ' watsonx.ai Python client library documentation for using RuntimeContext for AI services 을 참조하세요.

  2. 사용 사례에 따라 다음과 같이 ' generate(), ' generate_stream()' 또는 ' generate_batch() ' 함수를 테스트할 수 있습니다:

    • 생성() 함수를 테스트합니다:

      context.request_payload_json = { "test": "ai_service inference payload"}
      print(generate(context))
      
    • Generate_stream() 함수를 테스트합니다:

      context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]}
      for data in generate_stream(context):
          print(data)
      
    • Generate_batch() 함수를 테스트합니다:

      input_data_references = [
          {
              "type": "connection_asset",
              "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"},
              "location": {
                  "bucket": "wml-v4-fvt-batch-pytorch-connection-input",
                  "file_name": "testing-123",
              },
          }
      ]
      output_data_reference = {
          "type": "data_asset",
          "location": {"name": "nb-pytorch_output.zip"},
      }
      
      generate_batch(input_data_references, output_data_reference)
      

자세히 알아보기

상위 주제: 직접 코딩으로 AI 서비스 배포하기

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기