Decision Optimization watsonx.ai 런타임 비동기 API를 사용하여 작업을 병렬로 실행할 수 있도록 합니다.
문제점을 해결하기 위해 모델 배치에서 새 작업을 작성하고 여기에 데이터를 연관시킬 수 있습니다. 배치 단계 및 REST API 예제를 참조하십시오. 모델 배치에 대한 비용은 청구되지 않습니다. 일부 데이터가 있는 모델의 해결만 실행 시간에 따라 비용이 부과됩니다.
동시에 둘 이상의 작업을 분석하려면 배치를 작성할 때 둘 이상의 노드를 지정하십시오. 예를 들어, 이 REST API 예제에서 노드 특성 "nodes" : 1
의 값을 변경하여 노드 수를 증가시키십시오.
팟(Pod)(노드)
작업이 생성되어 제출되면 처리 방법은 현재 구성 및 watsonx.ai 런타임 인스턴스에 대해 실행 중인 작업에 따라 달라집니다. 이 프로세스가 다음 다이어그램에 표시됩니다.
- 새 작업이 큐로 전송됩니다.
- POD가 시작되었지만 유휴 상태인 경우 (작업을 실행하지 않음) 즉시 이 작업을 처리하기 시작합니다.
- 그렇지 않고 최대 노드 수에 도달하지 않으면 새 POD가 시작됩니다. (POD를 시작하는 데 몇 초가 걸릴 수 있습니다.) 그런 다음 작업은 처리를 위해 이 새 POD에 지정됩니다.
- 그렇지 않으면 실행 중인 POD중 하나가 완료되어 대기 중인 작업을 선택할 수 있을 때까지 작업이 큐에서 대기합니다.
각 크기별 팟(Pod)의 구성은 다음과 같습니다.
정의 | 이름 | 설명 |
---|---|---|
2 vCPU 및 8GB | S | 소형 |
4 vCPU 및 16GB | M | 중간 |
8 vCPU 및 32GB | L | 대형 |
16 vCPU 및 64GB | XL | 초대형 |
모든 구성에서 1 vCPU 및 512MB는 내부 사용을 위해 예약되어 있습니다.
해결 시간 외에도 가격 책정은 승수를 통해 선택된 크기에 따라 다릅니다.
배치 구성에서 사용할 최대 노드 수를 설정할 수도 있습니다.
유휴 팟(Pod)은 제한시간이 지나면 자동으로 중지됩니다. 작동 중인 POD가 없을 때 새 작업이 제출되면 POD를 다시 시작하는 데 시간 (약 30초) 이 걸립니다.
런타임 기반 가격(CUH)
작업 해결 시간만 청구되며, POD의 유휴 시간은 청구되지 않습니다 .
사용된 POD의 크기에 따라 다른 승수를 사용하여 사용된 CUH(용량 단위 시간)를 계산합니다.
REST API 예
모델 배포의 전체 절차 및 Swagger 문서 링크는 REST API 예시를 참조하세요.
Python API 예
REST API 외에도 Python ' notebook'에서 Decision Optimization 모델을 쉽게 생성, 배포 및 사용할 수 있도록 watsonx.ai 런타임과 함께 Python API가 제공됩니다.
자세한 내용은 Python 클라이언트 예제를 참조하세요.
모든 단계를 설명하고 문서화한 ' notebook ' 예시는 리소스 허브에서 확인할 수 있습니다.