翻訳が最新ではありません
カスタム基盤モデル展開
を作成しました:"2024-03-12 10:37:52 -0400" タイトル :"Deploying a custom 基盤モデル " fname: " analyze-data\deploy-custom-fm-cloud.liquid.md "
watsonx.ai の推論機能で使用するカスタム基盤モデルアップロードして展開することができます。
IBM によって管理されている基盤モデルを使用することに加えて、独自の基盤モデルをデプロイできるようになりました。 モデルがデプロイされたら、 Prompt Lab からカスタムモデルを推論するプロンプトを作成する。
カスタム基盤モデル導入することで、ユースケースに適したAIソリューションを柔軟に導入することができます。
サードパーティプロバイダのモデルを使用する場合は、モデルビルダーから直接モデルを入手するのが最善です。 新しいモデルを見つける場所の一つは、 Hugging Face、多くのモデルビルダーによって使用されているオープンソースの基盤モデルリポジトリです。
カスタム・ 基盤モデルデプロイ方法をビデオでご覧ください。
このビデオは、このドキュメントのコンセプトとタスクを学ぶための視覚的な方法を提供します。
カスタム基盤モデルを配置スペースにインポートする
基盤モデルデプロイし、推論に利用できるようにするプロセスには、 ModelOps エンジニアとプロンプトエンジニアが実行するタスクが含まれます。
ModelOps エンジニアは、まずモデルをクラウド ストレージ (内部または外部) にアップロードする必要があります。 カスタム基盤モデル配置するには、 ModelOps エンジニアが基盤モデル 資産 デプロイメントプロジェクトまたはスペース コンテキストに作成または昇格する必要があります。
モデルが本番環境にデプロイされた後、Prompt エンジニアは Prompt Lab または watsonx.ai API からカスタム基盤モデルモデルをプロンプトすることができます。
次の図は、ModelOps エンジニアと Prompt エンジニアが通常実行するタスクの流れを表しています:
モデルの準備
モデルを準備するために、ModelOps エンジニアは以下のタスクを実行する必要があります:
カスタム基盤モデル展開
モデルを準備した後、ModelOps エンジニアは以下のタスクを実行する必要があります:
カスタム・ 基盤モデルプロンプト
モデルがデプロイされると、Prompt エンジニアは Prompt Lab または watsonx.ai API からカスタム基盤モデルプロンプトを開始することができます。 カスタム・ 基盤モデル使用してプロンプト出力を生成する を参照。
次のステップ
詳細情報
親トピック 基盤モデル 資産展開