영어 버전 문서로 돌아가기AI 서비스 테스트
AI 서비스 테스트
마지막 업데이트 날짜: 2024년 11월 08일
AI 서비스를 생성한 후에는 watsonx.ai Python 클라이언트 라이브러리를 사용하여 AI 서비스의 코딩 로직을 테스트할 수 있습니다.
Python 클라이언트 라이브러리로 AI 서비스 테스트
watsonx.ai Python 클라이언트 라이브러리의 ' RuntimeContext
' 클래스를 사용하여 로컬에서 AI 서비스의 로직을 테스트하려면 다음 단계를 따르세요:
Python 클라이언트 라이브러리의 '
RuntimeContext
' 클래스를 사용하여 로컬에서 AI 서비스를 테스트하세요:from ibm_watsonx_ai.deployments import RuntimeContext context = RuntimeContext( api_client=client, request_payload_json={} ) # custom is optional argument which is specified during the time of creation of deployment custom_object = {"space_id": space_id} generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)
자세한 내용은 ' watsonx.ai Python client library documentation for using
RuntimeContext
for AI services 을 참조하세요.사용 사례에 따라 다음과 같이 '
generate()
, 'generate_stream()
' 또는 'generate_batch()
' 함수를 테스트할 수 있습니다:생성() 함수를 테스트합니다:
context.request_payload_json = { "test": "ai_service inference payload"} print(generate(context))
Generate_stream() 함수를 테스트합니다:
context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]} for data in generate_stream(context): print(data)
Generate_batch() 함수를 테스트합니다:
input_data_references = [ { "type": "connection_asset", "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"}, "location": { "bucket": "wml-v4-fvt-batch-pytorch-connection-input", "file_name": "testing-123", }, } ] output_data_reference = { "type": "data_asset", "location": {"name": "nb-pytorch_output.zip"}, } generate_batch(input_data_references, output_data_reference)
자세히 알아보기
상위 주제: 직접 코딩으로 AI 서비스 배포하기