資料の 英語版 に戻るダイレクト・コーディングによるAIサービスの展開
ダイレクト・コーディングによるAIサービスの展開
最終更新: 2024年11月08日
お客様のジェネレーティブAIアプリケーションに合わせてカスタマイズされたAIサービスを一から構築することができます。 例えば、RAG(retrieval augmented generation)を使用するアセットを展開する場合、AIサービスに根拠となる文書から回答を取得するロジックを取り込むことができる。
プロセスの概要
以下の図は、AIサービスのコーディングのプロセスを示している。
プロジェクト内にAIサービスと接続を含むノートブックを作成することができます。 AIサービスはRAGアプリケーションのロジックをキャプチャし、デプロイ可能なコード単位である生成関数を含んでいます。 生成機能はデプロイメントスペースに昇格し、デプロイメントの作成に使用される。 デプロイは、他のアプリケーションからアクセスできるREST APIエンドポイントとして公開されます。 REST APIエンドポイントにリクエストを送信して、デプロイされたAIサービスを推論に使用することができます。 配備されたAIサービスはリクエストを処理し、レスポンスを返す。
AIサービスの作成と展開のためのタスク
以下は、AIサービスを作成、展開、管理するために必要な手順である:
- AIサービスを作る PythonてノートブックにAIサービスを定義する。 AIサービスは、AIサービスとして展開するための特定の要件を満たす必要がある。
- AIサービスのテストAIサービスのコーディングロジックをローカルでテストします。
- AIサービス資産の作成AIサービスを作成してテストしたら、AIサービスをデプロイ可能なアセットとしてパッケージ化する必要があります。
- AIサービス資産をデプロイします:AIサービス資産をオンラインまたはバッチデプロイメントとしてデプロイします。
- AIサービスのデプロイメントをテストします:オンライン推論またはバッチスコアリングのためにデプロイされたAIサービスをテストします。
- AIサービスを管理します:配備の詳細にアクセスし、更新する。 ユーザ インタフェースまたはプログラムから配置をスケーリングまたは削 除します。
AIサービスの作成と展開のためのサンプルノートブック
AIサービスをプログラムで作成し、デプロイする方法については、以下のサンプル・ノートブックを参照してください:
サンプル名 | フレームワーク | 示される手法 |
---|---|---|
AIサービスとして実行するには、watsonxと meta-llama/llama-3-2-11b-vision-instructを使用する。 | Python | 環境のセットアップ ' AIサービスの作成 ' AIサービスの機能をローカルでテスト ' AIサービスのデプロイ ' AIサービスの実行 |
watsonx、Elasticsearch、LangChainて質問に答える(RAG) | LangChain | 環境「 」をセットアップする テストデータセットをダウンロードする。 watsonx上のfoundation modelを定義する ' Elasticsearchへの接続情報を設定する ' 質問に対して検索を考慮した回答を生成する ' AIサービスを作成する ' AIサービスの機能をローカルでテストする ' AIサービスをデプロイする |
watsonxと meta-llama/llama-3-1-70b-instructを使用してAIサービスを作成する。 | LangGraph | 環境のセットアップ ' AIサービスの作成 ' AIサービスの機能をローカルでテスト ' AIサービスのデプロイ ' AIサービスの実行 |
詳細情報
親トピック AIサービスの展開