0 / 0
資料の 英語版 に戻る
Decision Optimizationモデルの展開
最終更新: 2024年11月28日
Decision Optimization モデルのデプロイメント

Decision Optimization モデルをデプロイするには、デプロイメント・スペースにデプロイメントの準備ができたモデルを作成し、そのモデルをアーカイブとしてアップロードします。 デプロイすると、ジョブをモデルにサブミットし、ジョブの状態をモニターすることができます。

始める前に

IBM Cloudアカウント。が必要です。 https://www.ibm.com/cloud/
  1. IBM Cloud にログインします。
  2. API キーを作成します。 「正常に作成された API キー (API key successfully created)」 オープン・ウィンドウからコピーまたはダウンロードします (このウィンドウを閉じると、再度アクセスすることはできません)。

  3. オプション:watsonx.aiRuntimeサービスを作成する。
  4. IBM CloudResource リストビューAI/MachineMachine Learningサービスの リストからwatsonx.aiRuntimeインスタンスを選択します。

    watsonx.aiランタイムインスタンスの情報ペインから、名前GUIDCRNをコピーします。 (情報ペインを開くには、watsonx.aiRuntimeサービス名の横の行のどこかをクリックします。 その後、情報ペインが同じウィンドウで開きます。)

  5. オプション:Cloud Object Storageを作成する。
  6. IBM CloudResource リスト・ビューのStorageリソース・リストからCloud Object Storageインスタンスを選択します。

    ストレージインスタンスの情報ペインから名前CRNをコピーします。

  7. オプション:https://dataplatform.cloud.ibm.comユーザ インタフェースから配置スペースを作成します。 REST API を使用してデプロイメントスペースを作成することもできます。 REST APIを使用したデプロイメントスペースの作成参照。
  8. 配置の一覧から配置スペースを選択します。

    管理>全般タブからスペースGUIDをコピーする。 詳しくは、Deployment spaces を参照してください。

このタスクについて

以下の手順では、 Decision Optimization モデルが既に構築されていることを前提としています。

手順

Decision Optimization モデルをデプロイするには、以下のようにします。

  1. Decision Optimization モデルの定式化を、任意の設定やマスター データ ファイルと一緒に、tar.gz.zip、または .jar ファイルとして展開できるようにパッケージ化します。
    アーカイブには、以下のオプション・ファイルを含めることができます。
    1. モデル・ファイル

      PythonやOPLモデルの場合、これらのファイルには通常モデルの定式化が含まれています。 しかし、特にモデルとデータが同じファイルに統合されている場合は、これらのファイルを省略することもできます。 例えば、CPLEX(.lpファイル)、CPO(.cpoファイル)、mpsフォーマットのモデルの場合、同じモードの解決を避けるために、これらのファイルをジョブの後半に送ることができます。

    2. 設定ファイル

      詳細については、実行パラメータを参照。

    3. マスター・データ

      これらのファイルには、すべてのジョブで再利用できるあらゆるデータが含まれている。 このようなデータファイルを含めることで、デプロイジョブをより効率的に行うことができる。 例えば、町と町の間の距離のように、一定に保たれる値のデータファイルを含めることができる。 このデータファイルをデプロイメントに含めることで、ジョブリクエストのたびにデータファイルを提供する必要がなくなります。

    注:複数の'.pyファイルを持つPythonモデルの場合、アーカイブ内の同じフォルダにすべてのファイルを置いてください。 同じフォルダに「main.py」と呼ばれるメインファイルがなければならない。 サブフォルダーは使用しないでください。
  2. 配備準備の整ったモデルを作成し、以下の情報を提供する:
    • watsonx.aiランタイムサービスインスタンス
    • デプロイメント・スペース ・インスタンス
    • 使用可能な構成サイズのハードウェア仕様 (S (小)、M (中)、L (大)、XL (特大))です。 コンフィギュレーションを参照。
    • ソフトウェア仕様Decision Optimization実行時バージョン):
      • do_22.1 ランタイムはCPLEXに基づく 22.1.1.0
      • do_20.1 ランタイムはCPLEXに基づく 20.1.0.1

      watsonx.aiRuntimeサービスが提供するソフトウェア仕様を拡張することができます。 DO-サンプルの'jupyterフォルダ内の'ExtendWMLSoftwareSpecノートブックを参照。

      CPLEX ランタイムの更新:

      以前にサポートされなくなった CPLEX ランタイムを使用してモデルをデプロイした場合は、 REST API または UIを使用して、既存のデプロイ済みモデルを更新できます。

    • モデル・タイプ:
      • opl (do-opl_<ランタイムバージョン>)
      • cplex (do-cplex_<ランタイムバージョン>)
      • cpo (do-cpo_<ランタイムバージョン>)
      • docplex (do-docplex_<runtime version>) using Python 3.11 or 3.10 (非推奨)

      (ランタイムバージョンは、利用可能なDecision Optimizationランタイムバージョンの1つであることができますので、例えば、ランタイム22.1はモデルタイプdoopl_22.1 を持ちます)

    MODEL-ID を取得します。

    あなたのモデルは、1つまたは複数のデプロイメントで使用することができます。

  3. モデルアーカイブ(tar.gz、'.zip、または'.jarファイル)をアップロードします。 入力ファイル・タイプについては、 Decision Optimizationのモデル入出力データ・ファイル・フォーマットを参照のこと。
  4. MODEL-IDSPACE-ID、および ハードウェア仕様 を使用して、使用可能な構成サイズ (小規模 S、中規模 M、大規模 L、特大 XL) に合わせてモデルをデプロイします。 コンフィギュレーションを参照。 使用するノードの数を指定することもできます(デフォルト値は1)。
    deployment-id が得られます。
  5. DEPLOYMENT-IDを使用してデプロイメントをモニターします。 「配布状態」 は、 initializingupdatingready、または failedのいずれかです。

結果

デプロイメントにジョブを送信して監視する準備が整いました。 詳細については、Decision Optimizationのバッチ展開とモデルの実行を参照してください。

watsonx.aiRuntime PythonClient を使用したDecision Optimizationモデルのデプロイ、ジョブの作成と監視、ソリューションの取得方法の例については、'Deploying a DO model with WMLサンプルをご覧ください。 この ノートブック は、 Decision Optimization モデルの栄養サンプルを使用し、 Decision Optimization テスト UIを使用せずに手順全体を実行します。 このサンプルと'RunDeployedModel、'ExtendWMLSoftwareSpec ノートブックは、DO-samplesの'jupyterフォルダにある。 関連する製品とバージョンのサブフォルダーを選択します。 ダウンロードしたら、これらのJupyter ノートブックをプロジェクトに追加することができる。

REST APIの例も参照してください。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細