IBM watsonx.aiで推論するために、オープンソースとIBMの基礎モデルのコレクションが利用可能です。 ジェネレーティブAIアプリケーションのニーズと予算に最適な基盤モデルを見つけましょう。
watsonx.aiから推論に利用できる基礎モデルは、様々な方法でホストされている:
- watsonx.aiで提供される財団モデル
- IBM IBMマルチテナント・ハードウェア上にデプロイされ、推論に利用可能な、キュレーションされた基礎モデル。 使用したトークンで支払う。 watsonx.aiで提供されているFoundationモデルを参照してください。
- オンデマンド基盤モデルの展開
- あなたがデプロイする IBM、推論専用のfoundation modelのインスタンス。 配備へのアクセス権を与えられた同僚だけが、 foundation modelを推論できる。 専用の配備は、レート制限のない、より高速で応答性の高いインタラクションを意味します。 foundation modelのホスティング料金は時間単位で支払う。 オンデマンド基礎モデルの展開」を参照。
- カスタム基盤モデル
- watsonx.aiにインポートしてデプロイする、あなたによってキュレートされたファンデーションモデル。 デプロイしたカスタム・foundation modelモデルのインスタンスは、あなた専用のものです。 専用の配備は、より迅速で迅速な対応を意味します。 foundation modelのホスティング料金は時間単位で支払う。 カスタム・ファンデーション・モデルを参照。
- プロンプト・チューン・ファウンデーション・モデル
- 利用可能な基礎モデルのサブセットで、APIまたはTuning Studioからモデルをプロンプトチューニングすることで、ニーズに合わせてカスタマイズすることができます。 プロンプト・チューニングされたfoundation modelは、基盤となるIBMの foundation modelに依存している。 モデルをチューニングするために消費するリソースの対価を支払う。 モデルが調整された後、モデルの推論に使用されるトークンで支払う。 プロンプト・チューンド・ファウンデーション・モデルを参照。
基礎モデルを自社のデータセンターに導入したい場合は、watsonx.aiソフトウェアを購入することができる。 詳細については、 IBM watsonx as a Service および IBM watsonx.governance ソフトウェアの概要を参照してください。
展開方法の比較
適切な配備方法を選択するために、比較表をご覧ください。
デプロイメント・タイプ | 使用可能開始 | 展開メカニズム | ホスティング環境 | 請求方法 | 減価償却方針 |
---|---|---|---|---|---|
watsonx.aiで提供される財団モデル | - リソースハブ>トークンごとの支払い - Prompt Lab |
IBMによるキュレーションとデプロイメント | マルチテナント・ハードウェア | 使用メダル別 | 公表されたライフサイクルに従って非推奨 |
オンデマンド基盤モデルの展開 | - リソース・ハブ>時間給 - Prompt Lab |
お客様のご要望に応じて IBMがキュレーションし、デプロイします | 専用ハードウェア | 配備時間別 | デプロイされたモデルは非推奨ではない |
カスタム基盤モデル | • Prompt Lab | あなたによってキュレーションされ、展開される | 専用ハードウェア | 配備時間別 | 非推奨 |
プロンプト・チューン・ファウンデーション・モデル | • Prompt Lab | あなたによって調整され、展開される | マルチテナント・ハードウェア | - トレーニングはCUHの 請求される - 推論は使用されたトークンによって請求される |
foundation modelとして基礎となるモデルを追加しない限り、基礎となるモデルが非推奨になったときに非推奨になる |
モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。
展開方法別にサポートされる基盤モデル
watsonx.aiでは、すぐに使用できる、または組織で使用するための専用ハードウェアにデプロイできる、さまざまな基盤モデルをご用意しています。
watsonx.aiで提供される財団モデル
オープン・ソース・モデルおよび IBM 基盤モデルの集合は、 IBM watsonx.aiにデプロイされます。 これらの基礎モデルは、 Prompt Labまたはプログラムでプロンプトを出すことができます。
watsonx.aiで提供される IBM Foundationモデル
次の表は、 IBM推論用に提供している、サポートされている IBM 基盤モデルの一覧です。
使用量はリソース・ユニット(RU)で測定される。各ユニットは、foundation modelの推論の入力と出力から1,000トークンに相当する。 モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。
IBMのファンデーション・モデルのいくつかは、 Hugging Faceのようなサードパーティーのリポジトリからも入手できる。 サードパーティのリポジトリから取得した IBM Foundation モデルは、 IBM によって補償されません。 お客様が watsonx.ai からアクセスする IBM Foundation モデルのみが、 IBM によって補償されます。 IBMの補償に関連する契約上の保護の詳細については、 IBM Client Relationship Agreement および IBM watsonx.ai サービス説明を参照してください。
モデル名 | 入力価格 USD/1,000トークン) |
出力価格 USD/1,000トークン) |
コンテキストウィンドウ (入力トークン+出力トークン) |
詳細情報 |
---|---|---|---|---|
granite-13b-chat-v2 | $0.0006 | $0.0006 | 8,192 | - モデルカード -ウェブサイト -研究論文 |
granite-13b-instruct-v2 | $0.0006 | $0.0006 | 8,192 | - モデルカード -ウェブサイト -研究論文 注:このfoundation modelは、迅速な調整が可能である。
|
granite-7b-lab | $0.0006 | $0.0006 | 8,192 | - モデルカード -研究論文(LAB) |
granite-8b-japanese | $0.0006 | $0.0006 | 4,096 | - モデルカード -ウェブサイト -研究論文 |
granite-20b-multilingual | $0.0006 | $0.0006 | 8,192 | - モデルカード -ウェブサイト -研究論文 |
granite-3-2b-instruct | $0.0001 | $0.0001 | 131,072 | - モデルカード -ウェブサイト -研究論文 |
granite-3-8b-instruct | $0.0002 | $0.0002 | 131,072 | - モデルカード -ウェブサイト -研究論文 |
granite-guardian-3-2b | $0.0001 | $0.0001 | 8,192 | - モデルカード -ウェブサイト |
granite-guardian-3-8b | $0.0002 | $0.0002 | 8,192 | - モデルカード -ウェブサイト |
granite-3b-code-instruct | $0.0006 | $0.0006 | 128,000 | - モデルカード -ウェブサイト -研究論文 |
granite-8b-code-instruct | $0.0006 | $0.0006 | 128,000 | - モデルカード -ウェブサイト -研究論文 |
granite-20b-code-instruct | $0.0006 | $0.0006 | 8,192 | - モデルカード -ウェブサイト -研究論文 |
granite-34b-code-instruct | $0.0006 | $0.0006 | 8,192 | - モデルカード -ウェブサイト -研究論文 |
watsonx.aiで提供されるサードパーティ基礎モデル
次の表は、 watsonx.ai で提供されている、サポートされているサードパーティ基礎モデルの一覧です。
使用量はリソース・ユニット(RU)で測定される。各ユニットは、foundation modelの推論の入力と出力から1,000トークンに相当する。 モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。
モデル名 | プロバイダー | 入力価格 USD/1,000トークン) |
出力価格 USD/1,000トークン) |
コンテキストウィンドウ (入力トークン+出力トークン) |
詳細情報 |
---|---|---|---|---|---|
allam-1-13b-instruct | 国立人工知能センター、サウジアラビアデータ・人工知能庁 | $0.0018 | $0.0018 | 4,096 | - モデルカード |
codellama-34b-instruct | Code Llama | $0.0018 | $0.0018 | 16,384 | - モデルカード MetaAIブログ |
elyza-japanese-llama-2-7b-instruct | ELYZA社 | $0.0018 | $0.0018 | 4,096 | - モデルカード -blog onnote.com |
flan-t5-xl-3b | $0.0006 | $0.0006 | 4,096 | - モデルカード -研究論文 注:このfoundation modelは、迅速な調整が可能である。
|
|
flan-t5-xxl-11b | $0.0018 | $0.0018 | 4,096 | - モデルカード -研究論文 |
|
flan-ul2-20b | $0.0050 | $0.0050 | 4,096 | - モデルカード UL2リサーチペーパー フラン・リサーチペーパー |
|
jais-13b-chat | インセプション、モハメド・ビン・ザイード人工知能大学(MBZUAI)、セレブラス・システムズ | $0.0018 | $0.0018 | 2,048 | - モデルカード -研究論文 |
llama-3-3-70b-instruct | Meta | $0.0018 | $0.0018 | 131,072 | - モデルカード Meta AIブログ |
llama-3-2-1b-instruct | Meta | $0.0001 | $0.0001 | 131,072 | - モデルカード Meta AIブログ 」-研究論文 |
llama-3-2-3b-instruct | Meta | $0.00015 | $0.00015 | 131,072 | - モデルカード Meta AIブログ 」-研究論文 |
llama-3-2-11b-vision-instruct | Meta | $0.00035 | $0.00035 | 131,072 | - モデルカード Meta AIブログ 」-研究論文 |
llama-3-2-90b-vision-instruct | Meta | $0.0020 | $0.0020 | 131,072 | - モデルカード Meta AIブログ 」-研究論文 |
llama-guard-3-11b-vision | Meta | $0.00035 | $0.00035 | 131,072 | - モデルカード Meta AIブログ 」-研究論文 |
llama-3-1-8b-instruct | Meta | $0.0006 | $0.0006 | 131,072 | - モデルカード Meta AIブログ |
llama-3-1-70b-instruct | Meta | $0.0018 | $0.0018 | 131,072 | - モデルカード Meta AIブログ |
llama-3-405b-instruct | Meta | $0.0050 | $0.016 | 16,384 | - モデルカード Meta AIブログ |
llama-3-8b-instruct | Meta | $0.0006 | $0.0006 | 8,192 | - モデルカード Meta AIブログ |
llama-3-70b-instruct | Meta | $0.0018 | $0.0018 | 8,192 | - モデルカード Meta AIブログ |
llama-2-13b-chat | Meta | $0.0006 | $0.0006 | 4,096 | - モデルカード -研究論文 |
mistral-large | Mistral AI | $0.003 | $0.01 | 32,768 | - モデルカード - Mistral Large 22のブログ記事 |
mixtral-8x7b-instruct-v01 | Mistral AI | $0.0006 | $0.0006 | 32,768 | - モデルカード -研究論文 |
mt0-xxl-13b | BigScience | $0.0018 | $0.0018 | 4,096 | - モデルカード -研究論文 |
pixtral-12b | Mistral AI | $0.00035 | $0.00035 | 128,000 | - モデルカード -Pixtral12Bのブログ記事 |
- テキストの埋め込みと再ランク付けのためにIBMが提供する、サポートされている基盤モデルの詳細については、サポートされているエンコーダの基盤モデルを参照してください。
- 各リージョンのデータ・センターで提供されるモデルのリストについては、 基盤モデルのリージョンの可用性を参照してください。
- 価格と料金の制限については、watsonx.aiランタイムプランをご覧ください。
カスタム基盤モデル
IBMがキュレーションした基盤モデルで作業するだけでなく、独自の基盤モデルをアップロードしてデプロイすることもできます。 カスタムモデルが配備され watsonx.ai に登録されると、 Prompt Labや watsonx.ai API からカスタムモデルを推論するプロンプトを作成できるようになります。
カスタム・foundation modelのアップロード、登録、デプロイ方法の詳細については、カスタム・foundation modelのデプロイを参照してください。
オンデマンド基盤モデルの展開
IBMモデル・セットからfoundation modelを選択し、組織専用に展開します。
foundation modelをオンデマンドでデプロイする方法の詳細については、 基礎モデルをオンデマンドでデプロイするを参照してください。
IBMのオンデマンド基盤モデルを展開
次の表は、オンデマンドでデプロイ可能なIBMFoundation モデルの一覧です。
IBMのファンデーション・モデルのいくつかは、 Hugging Faceのようなサードパーティーのリポジトリからも入手できる。 サードパーティのリポジトリから取得した IBM Foundation モデルは、 IBM によって補償されません。 お客様が watsonx.ai からアクセスする IBM Foundation モデルのみが、 IBM によって補償されます。 IBMの補償に関連する契約上の保護の詳細については、 IBM Client Relationship Agreement および IBM watsonx.ai サービス説明を参照してください。
モデル名 | 1時間あたりの料金(米ドル | モデル・ホスティング・カテゴリー | コンテキストウィンドウ (入力トークン+出力トークン) |
---|---|---|---|
granite-13b-chat-v2 | $5.22 | 小 | 8,192 |
granite-13b-instruct-v2 | $5.22 | 小 | 8,192 |
granite-20b-code-base-schema-linking | $5.22 | 小 | 8,192 |
granite-20b-code-base-sql-gen | $5.22 | 小 | 8,192 |
granite-3-8b-base | $5.22 | 小 | 4,096 |
サードパーティからのオンデマンド基盤モデルの展開
次の表は、オンデマンドでデプロイ可能なサードパーティの基盤モデルの一覧です。
モデル名 | プロバイダー | 1時間あたりの料金(米ドル | モデル・ホスティング・カテゴリー | コンテキストウィンドウ (入力トークン+出力トークン) |
---|---|---|---|---|
flan-t5-xl-3b | $5.22 | 小 | 4,096 | |
flan-t5-xxl-11b | $5.22 | 小 | 4,096 | |
flan-ul2-20b | $5.22 | 小 | 4,096 | |
llama-2-13b-chat | Meta | $5.22 | 小 | 4,096 |
llama-2-70b-chat | Meta | $20.85 | 大 | 4,096 |
llama-3-8b-instruct | Meta | $5.22 | 小 | 8,192 |
llama-3-70b-instruct | Meta | $20.85 | 大 | 8,192 |
llama-3-1-8b | Meta | $5.22 | 小 | 131,072 |
llama-3-1-8b-instruct | Meta | $5.22 | 小 | 131,072 |
llama-3-3-70b-instruct | Meta | $10.40 | 中間 | 8,192 |
llama-3-3-70b-instruct-hf | Meta | $20.85 | 大 | 8,192 |
mixtral-8x7b-base | Mistral AI | $10.40 | 中間 | 32,768 |
mixtral-8x7b-instruct-v01 | Mistral AI | $10.40 | 中間 | 32,768 |
mistral-nemo-instruct-2407 | Mistral AI | $5.22 | 小 | 131,072 |
mt0-xxl-13b | BigScience | $5.22 | 小 | 4,096 |
プロンプト・チューン・ファウンデーション・モデル
以下の基礎モデルは、watsonx.ai:でプロンプトチューニングすることでカスタマイズできます:
詳しくはTuning Studioをご覧ください。
詳細情報
親トピック 生成的AIソリューションの開発