0 / 0
資料の 英語版 に戻る
MLモデルでカスタムコンポーネントを使用するための要件
最終更新: 2024年11月28日
MLモデルでカスタムコンポーネントを使用するための要件

IBM watsonx.aiRuntime にオンライン・デプロイメントとしてデプロイするモデルには、独自のトランスフォーマー、エスティメーター、関数、クラス、テンソル演算を定義できます。

カスタム・コンポーネントの定義および使用

カスタムコンポーネントをモデルで使用するには、カスタムコンポーネントをPython配布パッケージにパッケージする必要があります。

パッケージ要件

  • パッケージの種類は、ソースディストリビューションでなければなりません (Wheel および Egg タイプのディストリビューションはサポートされていません)
  • パッケージ・ファイルの形式が .zip でなければなりません。
  • カスタム・コンポーネントのサードパーティ依存コンポーネントはすべて、'pipでインストール可能でなければならず、'setuptoolsライブラリの'setup関数の'install_requires引数に渡さなければならない。

を参照してください:ソースディストリビューションの作成

カスタム・パッケージの保管

学習済みモデルをwatsonx.aiRuntime リポジトリに保存する際には、特別な手順を踏む必要があります:

  • カスタムパッケージをwatsonx.aiRuntime リポジトリに保存します (watsonx.ai Pythonクライアントの 'runtimes.store_library関数、または 'store libraries watsonx.aiRuntime CLI コマンドを使用します)
  • 保存したカスタムパッケージを参照するランタイム・リソース・オブジェクトを作成し、watsonx.aiRuntime リポジトリーに保存します('runtimes.store関数または 'store runtimesコマンドを使用します)
  • 学習したモデルをwatsonx.aiRuntime リポジトリに保存する場合、'store_model関数(または 'storeコマンド)に渡されるメタデータで、保存したランタイムリソースを参照します

サポートされるフレームワーク

これらのフレームワークはカスタム・コンポーネントをサポートしている:

  • Scikit-learn
  • XGBoost
  • Tensorflow
  • Python 関数
  • Python スクリプト
  • Decision Optimization

詳細については、サポートされているフレームワークを参照してください

 

親トピック デプロイメント ランタイムのカスタマイズ

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細