適切なデプロイメントのためには、デプロイメント・スペースをセットアップしてから、特定のデプロイメント・タイプを選択して構成する必要があります。 資産をデプロイした後、それらの資産を管理および更新して、それらの資産のパフォーマンスが良好であることを確認し、それらの正確度をモニターすることができます。
スペースから資産をデプロイできるようにするには、機械学習サービス・インスタンスがプロビジョンされ、そのスペースに関連付けられている必要があります。
オンライン・デプロイメントとバッチ・デプロイメントは、オンライン・スコアリング・エンドポイントを作成したり、モデルでバッチ・スコアリングを実行したりするための簡単な方法を提供します。
カスタム・ロジックを実装する場合は、以下のようにします。
- オンライン・エンドポイントの作成に使用する Python 関数を作成します。
- バッチ・スコアリング用のノートブックまたはスクリプトの作成
デプロイ可能アセット
以下は、watsonx.aiランタイムスペースからデプロイできるアセットのリストと、適用可能なデプロイメント タイプの情報です:
資産タイプ | バッチ・デプロイメント | オンライン・デプロイメント |
---|---|---|
関数 | はい | はい |
モデル | はい | はい |
スクリプト | はい | いいえ |
注:
- デプロイジョブは、バッチデプロイメント、またはwatsonx.aiRuntime のフローのような自己完結型のアセットを実行する方法です。 ジョブの入力と出力を選択し、それを手動で実行するか、スケジュールに従って実行するかを選択できます。 詳しくは、 デプロイメント・ジョブの作成を参照してください。
- Python関数やPythonスクリプトを使用することで、自然言語処理モデルをデプロイすることができます。 オンラインとバッチの両方のデプロイがサポートされています。
- ノートブックおよびフローはノートブック環境を使用します。 デプロイメント・スペースで実行することはできますが、デプロイすることはできません。
詳しくは、以下を参照してください。
資産をデプロイした後、それらの資産を管理および更新して、それらの資産のパフォーマンスが良好であることを確認し、それらの正確度をモニターすることができます。 デプロイメントを管理または更新する方法には、以下のようなものがあります。
デプロイメント・ジョブを管理する. 1 つ以上のジョブを作成した後、デプロイメント・スペースの ジョブ タブからそれらのジョブを閲覧および管理できます。
デプロイメントを更新する。 例えば、新規デプロイメントを作成せずに、よりパフォーマンスの高いバージョンにモデルを置き換えることができます。
デプロイメントのスケーリング して、デプロイメントのレプリカを作成することにより、可用性とスループットを向上させます。
デプロイメントを削除 して、 デプロイメントを削除し、リソースを解放します。
安定したエンドポイントを提供するための API ゲートウェイの構成
watsonx.aiランタイムは、ダウンタイムを防ぐために安定したエンドポイントを提供します。 ただし、新しい Cloud Pak for Data インスタンスに移動したり、インスタンスを追加したりすると、ダウン時間が発生する可能性があります。
API ゲートウェイは、 Watson Machine Learning API エンドポイントで使用できる安定した URL を提供します。 以下の場合にダウン時間が発生すると、デプロイメント・エンドポイントで API ゲートウェイ ( Cloud Pak for Integrationで使用可能) を使用してダウン時間を処理できます。
- 高可用性構成で Cloud Pak for Data のインスタンスが複数ある場合、使用可能なインスタンスの 1 つが失敗します。 この場合、API ゲートウェイを使用して別のインスタンスに自動的に切り替えることができるため、完全な失敗を防ぐことができます。
- 同じエンドポイントを使用する複数のアプリケーションがあり、デプロイメント・エンドポイントが使用できない場合。 例えば、デプロイメントを誤って削除した場合などです。 この場合、API ゲートウェイ内のエンドポイントを更新して、アプリケーションがエンドポイントを引き続き使用するようにすることができます。
デプロイメント・ランタイムでGPUとMIGのサポートを有効にする
推論に大きな処理能力を必要とする予測機械学習モデルをデプロイする場合、オプションでデプロイのランタイム用にGPUを構成することができます。
GPUのフルパワーを必要としないアプリケーションをデプロイする場合、GPUのMIGサポートを有効にすることもできます。 MIGをGPUアクセラレーションワークロード用に設定する場合、すべてのGPU対応ノードは、前の設定ステップで決定した単一のストラテジーに従う必要があります。 これにより、クラスタ内のすべてのGPU対応ノードで一貫した動作が保証されます。 MIGサポートを設定するには、Nvidia Guide for configuring MIG supportを参照してください。
もっと見る
親トピック: 資産のデプロイ