0 / 0
資料の 英語版 に戻る
ダイレクト・コーディングによるAIサービスの展開
最終更新: 2024年11月08日
ダイレクト・コーディングによるAIサービスの展開

お客様のジェネレーティブAIアプリケーションに合わせてカスタマイズされたAIサービスを一から構築することができます。 例えば、RAG(retrieval augmented generation)を使用するアセットを展開する場合、AIサービスに根拠となる文書から回答を取得するロジックを取り込むことができる。

プロセスの概要

以下の図は、AIサービスのコーディングのプロセスを示している。

プロジェクト内にAIサービスと接続を含むノートブックを作成することができます。 AIサービスはRAGアプリケーションのロジックをキャプチャし、デプロイ可能なコード単位である生成関数を含んでいます。 生成機能はデプロイメントスペースに昇格し、デプロイメントの作成に使用される。 デプロイは、他のアプリケーションからアクセスできるREST APIエンドポイントとして公開されます。 REST APIエンドポイントにリクエストを送信して、デプロイされたAIサービスを推論に使用することができます。 配備されたAIサービスはリクエストを処理し、レスポンスを返す。

ダイレクト・コーディングの使用例

AIサービスの作成と展開のためのタスク

以下は、AIサービスを作成、展開、管理するために必要な手順である:

  1. AIサービスを作る PythonてノートブックにAIサービスを定義する。 AIサービスは、AIサービスとして展開するための特定の要件を満たす必要がある。
  2. AIサービスのテストAIサービスのコーディングロジックをローカルでテストします。
  3. AIサービス資産の作成AIサービスを作成してテストしたら、AIサービスをデプロイ可能なアセットとしてパッケージ化する必要があります。
  4. AIサービス資産をデプロイします:AIサービス資産をオンラインまたはバッチデプロイメントとしてデプロイします。
  5. AIサービスのデプロイメントをテストします:オンライン推論またはバッチスコアリングのためにデプロイされたAIサービスをテストします。
  6. AIサービスを管理します:配備の詳細にアクセスし、更新する。 ユーザ インタフェースまたはプログラムから配置をスケーリングまたは削 除します。

AIサービスの作成と展開のためのサンプルノートブック

AIサービスをプログラムで作成し、デプロイする方法については、以下のサンプル・ノートブックを参照してください:

AIサービス用サンプルノート
サンプル名 フレームワーク 示される手法
AIサービスとして実行するには、watsonxと meta-llama/llama-3-2-11b-vision-instructを使用する。 Python 環境のセットアップ '
AIサービスの作成 '
AIサービスの機能をローカルでテスト '
AIサービスのデプロイ '
AIサービスの実行
watsonx、Elasticsearch、LangChainて質問に答える(RAG) LangChain 環境「
」をセットアップする テストデータセットをダウンロードする。
watsonx上のfoundation modelを定義する '
Elasticsearchへの接続情報を設定する '
質問に対して検索を考慮した回答を生成する '
AIサービスを作成する '
AIサービスの機能をローカルでテストする '
AIサービスをデプロイする
watsonxと meta-llama/llama-3-1-70b-instructを使用してAIサービスを作成する。 LangGraph 環境のセットアップ '
AIサービスの作成 '
AIサービスの機能をローカルでテスト '
AIサービスのデプロイ '
AIサービスの実行

詳細情報

親トピック AIサービスの展開