モデルまたは関数をトレーニングまたはスコアリングするときに、コンピューティング・ニーズに一致するハードウェア構成のタイプ、サイズ、および能力を選択してください。
デフォルトのハードウェア構成
watsonx.aiRuntime アセットのハードウェア構成は、アセットをトレーニングするとき、またはアセットをデプロイするときに選択します。
キャパシティー・タイプ | 1 時間当たりのキャパシティー・ユニット |
---|---|
極小: 1x4 = 1 個の vCPU および 4 GB の RAM | 0.5 |
小: 2x8 = 2 個の vCPU および 8 GB の RAM | 1 |
中: 4x16 = 4 個の vCPU および 16 GB の RAM | 2 |
大: 8x32 = 8 個の vCPU および 32 GB の RAM | 4 |
特大: 16x64 = 16 個の vCPU および 64 GB の RAM | 8 |
watsonx.aiランタイムアセットの計算使用量
デプロイメントとスコアリングは、watsonx.aiRuntime サービスから CUH(Capacity Unit Hours)としてコンピュートリソースを消費します。
watsonx.aiランタイムサービスの月間総 CUH 消費量を確認するには、ナビゲーションメニューから、管理->環境ランタイムを選択します。
さらに、特定のデプロイメント・スペースごとに毎月のリソース使用量をモニターできます。 これを行うには、デプロイメント・スペースから 「管理」 タブに移動し、 「リソース使用量」を選択します。 要約には、 AutoAI デプロイメント、統合学習デプロイメント、バッチ・デプロイメント、およびオンライン・デプロイメントに対して別々に、デプロイメント・タイプごとに使用される CUH が示されます。
コンピュート使用量の詳細
消費される CUH の率は、デプロイメントのコンピューティング要件によって決まります。 これは、以下のような変数に基づいています。
- 展開の種類
- フレームワークのタイプ
- スコアリングの複雑さより多くの同時ユーザーおよび要求をサポートするためにデプロイメントをスケーリングすることにより、CUH 使用量も増加します。 多くの変数がデプロイメントのリソース使用量に影響するため、モデルおよびデプロイメントに対してテストを実行して CUH 使用量を分析することをお勧めします。
オンライン・デプロイメントが容量単位を消費する方法は、フレームワークに基づいています。 一部のフレームワークでは、デプロイメント・スペース内でデプロイメント資産がアクティブである時間数に対して CUH が課金されます。 例えば、オンライン・デプロイメント・モードの SPSS モデルは、1 日 24 時間週 7 日実行され、CUH を消費し、その期間に対して課金されます。 アクティブなオンライン・デプロイメントにはアイドル時間がありません。 その他のフレームワークの場合、CUH はスコアリング期間に従って課金されます。 CUH 使用量の計算方法について詳しくは、CUH 使用量テーブルを参照してください。
計算時間はミリ秒単位で計算され、操作ごとに最小 1 分が計算されます。 例:
- 12 秒かかるトレーニング実行は、1 分として請求されます。
- 83.555 秒かかるトレーニング実行は、計算されたとおりに請求されます。
デプロイメントおよびフレームワーク・タイプによる CUH の使用量
CUH 使用量は、以下の数式を使用して計算されます。
デプロイメント・タイプ | フレームワーク | CUH 計算 |
---|---|---|
オンライン | AutoAI、AI 機能、SPSS、Scikit-Learn カスタム・ライブラリー、 Tensorflow、RShiny | デプロイメントのアクティブ期間 * ノード数 * キャパシティー・タイプ・フレームワークの CUH 率 |
オンライン | Spark、PMML、Scikit-Learn、Pytorch、XGBoost | キャパシティー・タイプ・フレームワークのスコア期間 (秒) * ノード数 * CUH 率 |
バッチ | すべてのフレームワーク | キャパシティー・タイプ・フレームワークのジョブ所要時間 (秒) * ノード数 * CUH 率 |
詳細情報
親トピック: 予測デプロイメントの管理