モデルをデプロイするのと同じ方法で、watsonx.aiRuntime にPython関数をデプロイできます。 ツールおよびアプリは、 watsonx.ai Python クライアントまたは REST API を使用して、デプロイされたモデルにデータを送信するのと同じ方法で、デプロイされた関数にデータを送信することができます。 Python 関数をデプロイすると、詳細 (資格情報など) を非表示にすることができます。 また、データをモデルに渡す前に前処理することもできます。 さらに、エラーを処理し、複数のモデルへの呼び出しを組み込むことができます。これらの呼び出しはすべて、アプリケーション内ではなく、デプロイされた関数内にあります。
Python 関数を作成およびデプロイするためのサンプル・ノートブック
watsonx.ai Python クライアント・ライブラリーを使用して Python 関数を作成およびデプロイする方法の例については、以下のサンプル・ノートブックを参照してください。
サンプル名 | フレームワーク | 示される手法 |
---|---|---|
自動車のビジネスを予測する | ハイブリッド (Tensorflow) | AI 定義をセットアップします。 データを準備します。 Tensorflowを使用して Keras モデルを作成します。 モデルをデプロイしてスコアリングします。 Python 関数を定義、保管、およびデプロイします。 |
ソフトウェア仕様の Python 機能をデプロイする | コア | Python 関数を作成する Web サービスを作成する モデルをスコアする |
これらのノートブックでは、関数を作成およびデプロイするための以下の 6 つのステップを示しています。
- 関数を定義する。
- 認証を行い、スペースを定義する。
- 関数をリポジトリーに保管する。
- ソフトウェア仕様を取得する。
- 保管された関数をデプロイする。
- データを関数に送信して処理する。
watsonx.ai Pythonクライアント・ライブラリを使用した他のサンプル・ノートブックへのリンクは、ノートブックwatsonx.aiランタイムを使用するで を参照してください。
関数のスケーラビリティーの強化
デプロイメント・スペースから関数をデプロイする場合、またはプログラムで関数をデプロイする場合、デフォルトでは関数の単一のコピーがデプロイされます。 スケーラビリティーを強化するため、デプロイメントの構成を編集してレプリカの数を増やすことができます。 レプリカの数を増やすと、スコアリング要求の数を増やすことができます。
Python クライアント API を使用してレプリカの数を 3 に設定する例を以下に示します。
change_meta = {
client.deployments.ConfigurationMetaNames.HARDWARE_SPEC: {
"name":"S",
"num_nodes":3}
}
client.deployments.update(<deployment_id>, change_meta)
詳細情報
- デプロイ可能な Python 関数の定義について詳しくは、 デプロイ可能な Python 関数の作成および保管の「 デプロイ可能な関数の一般要件 」セクションを参照してください。
- ユーザー・インターフェースを使用して、デプロイメント・スペースから関数をデプロイできます。 詳しくは、Deployment spaces を参照してください。
親トピック: 予測デプロイメントの管理