0 / 0
資料の 英語版 に戻る
watsonx.ai でサポートされる基盤モデル
最終更新: 2025年1月29日
watsonx.ai でサポートされる基盤モデル

IBM watsonx.aiで推論するために、オープンソースとIBMの基礎モデルのコレクションが利用可能です。 ジェネレーティブAIアプリケーションのニーズと予算に最適な基盤モデルを見つけましょう。

watsonx.aiから推論に利用できる基礎モデルは、様々な方法でホストされている:

watsonx.aiで提供される財団モデル
IBM IBMマルチテナント・ハードウェア上にデプロイされ、推論に利用可能な、キュレーションされた基礎モデル。 使用したトークンで支払う。 watsonx.aiで提供されているFoundationモデルを参照してください。
オンデマンド基盤モデルの展開
あなたがデプロイする IBM、推論専用のfoundation modelのインスタンス。 配備へのアクセス権を与えられた同僚だけが、 foundation modelを推論できる。 専用の配備は、レート制限のない、より高速で応答性の高いインタラクションを意味します。 foundation modelのホスティング料金は時間単位で支払う。 オンデマンド基礎モデルの展開」を参照。
カスタム基盤モデル
watsonx.aiにインポートしてデプロイする、あなたによってキュレートされたファンデーションモデル。 デプロイしたカスタム・foundation modelモデルのインスタンスは、あなた専用のものです。 専用の配備は、より迅速で迅速な対応を意味します。 foundation modelのホスティング料金は時間単位で支払う。 カスタム・ファンデーション・モデルを参照。
プロンプト・チューン・ファウンデーション・モデル
利用可能な基礎モデルのサブセットで、APIまたはTuning Studioからモデルをプロンプトチューニングすることで、ニーズに合わせてカスタマイズすることができます。 プロンプト・チューニングされたfoundation modelは、基盤となるIBMの foundation modelに依存している。 モデルをチューニングするために消費するリソースの対価を支払う。 モデルが調整された後、モデルの推論に使用されるトークンで支払う。 プロンプト・チューンド・ファウンデーション・モデルを参照。

基礎モデルを自社のデータセンターに導入したい場合は、watsonx.aiソフトウェアを購入することができる。 詳細については、 IBM watsonx as a Service および IBM watsonx.governance ソフトウェアの概要を参照してください。

展開方法の比較

適切な配備方法を選択するために、比較表をご覧ください。

表 1. 基礎モデルの展開方法
デプロイメント・タイプ 使用可能開始 展開メカニズム ホスティング環境 請求方法 減価償却方針
watsonx.aiで提供される財団モデル - リソースハブ>トークンごとの支払い
- Prompt Lab
IBMによるキュレーションとデプロイメント マルチテナント・ハードウェア 使用メダル別 公表されたライフサイクルに従って非推奨
オンデマンド基盤モデルの展開 - リソース・ハブ>時間給
- Prompt Lab
お客様のご要望に応じて IBMがキュレーションし、デプロイします 専用ハードウェア 配備時間別 デプロイされたモデルは非推奨ではない
カスタム基盤モデル • Prompt Lab あなたによってキュレーションされ、展開される 専用ハードウェア 配備時間別 非推奨
プロンプト・チューン・ファウンデーション・モデル • Prompt Lab あなたによって調整され、展開される マルチテナント・ハードウェア - トレーニングはCUHの
請求される - 推論は使用されたトークンによって請求される
foundation modelとして基礎となるモデルを追加しない限り、基礎となるモデルが非推奨になったときに非推奨になる

モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。

展開方法別にサポートされる基盤モデル

watsonx.aiでは、すぐに使用できる、または組織で使用するための専用ハードウェアにデプロイできる、さまざまな基盤モデルをご用意しています。

表 1a. 展開方法別に利用可能な基礎モデル
プロバイダー watsonx.ai
で提供(トークンごとの支払い)
オンデマンドで展開
(時間単位での支払い)
IBM granite-13b-chat-v2 (非推奨)
granite-13b-instruct-v2
granite-8b-japanese
granite-3-8b-base
granite-20b-multilingual (非推奨)
granite-3-2b-instruct
t• granite-3-8b-instruct
granite-guardian-3-2b
granite-guardian-3-8b
granite-3b-code-instruct
granite-8b-code-instruct
granite-20b-code-instruct
granite-34b-code-instruct
granite-7b-lab
granite-13b-chat-v2
granite-13b-instruct-v2
granite-20b-code-base-schema-linking
granite-20b-code-base-sql-gen
Google flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
メタ llama-3-3-70b-instruct
llama-3-2-1b-instruct
• • llama-3-2-3b-instruct
llama-3-2-11b-vision-instruct
llama-3-2-90b-vision-instruct
llama-guard-3-11b-vision-instruct
llama-3-1-8b-instruct (非推奨)
llama-3-1-70b-instruct (非推奨)
llama-3-405b-instruct
llama-3-8b-instruct (非推奨)
llama-3-70b-instruct (非推奨)
llama-2-13b-chat (非推奨)
llama-3-3-70b-instruct
llama-3-3-70b-instruct-hf
llama-3-1-70b-instruct
llama-2-13b-chat
llama-2-70b-chat
llama-3-8b-instruct
llama-3-70b-instruct
llama-3-1-8b
llama-3-1-8b-instruct
ミストラルAI mistral-large
mixtral-8x7b-instruct-v01
pixtral-12b
mixtral-8x7b-base
mixtral-8x7b-instruct-v01
mistral-nemo-instruct-2407
BigScience mt0-xxl-13b mt0-xxl-13b
Code Llama codellama-34b-instruct (非推奨)
ELYZA社 elyza-japanese-llama-2-7b-instruct
Inception jais-13b-chat
SDAIA allam-1-13b-instruct

watsonx.aiで提供される財団モデル

オープン・ソース・モデルおよび IBM 基盤モデルの集合は、 IBM watsonx.aiにデプロイされます。 これらの基礎モデルは、 Prompt Labまたはプログラムでプロンプトを出すことができます。

The following provided foundation models are deployed by IBM for inferencing in watsonx.ai:

  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • granite-8b-japanese
  • granite-20b-multilingual
  • granite-3-2b-instruct
  • granite-3-8b-instruct
  • granite-guardian-3-2b
  • granite-guardian-3-8b
  • granite-3b-code-instruct
  • granite-8b-code-instruct
  • granite-20b-code-instruct
  • granite-34b-code-instruct
  • allam-1-13b-instruct
  • codellama-34b-instruct
  • elyza-japanese-llama-2-7b-instruct
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • jais-13b-chat
  • llama-3-3-70b-instruct
  • llama-3-2-1b-instruct
  • llama-3-2-3b-instruct
  • llama-3-2-11b-vision-instruct
  • llama-3-2-90b-vision-instruct
  • llama-guard-3-11b-vision-instruct
  • llama-3-1-8b-instruct
  • llama-3-1-70b-instruct
  • llama-3-405b-instruct
  • llama-3-8b-instruct
  • llama-3-70b-instruct
  • llama-2-13b-chat
  • mistral-large
  • mixtral-8x7b-instruct-v01
  • pixtral-12b

watsonx.aiで提供される IBM Foundationモデル

次の表は、 IBM推論用に提供している、サポートされている IBM 基盤モデルの一覧です。

使用量はリソース・ユニット(RU)で測定される。各ユニットは、foundation modelの推論の入力と出力から1,000トークンに相当する。 モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。

IBMのファンデーション・モデルのいくつかは、 Hugging Faceのようなサードパーティーのリポジトリからも入手できる。 サードパーティのリポジトリから取得した IBM Foundation モデルは、 IBM によって補償されません。 お客様が watsonx.ai からアクセスする IBM Foundation モデルのみが、 IBM によって補償されます。 IBMの補償に関連する契約上の保護の詳細については、 IBM Client Relationship Agreement および IBM watsonx.ai サービス説明を参照してください。

表 2. watsonx.aiで提供される IBM Foundationモデル
モデル名 API model_id 入力価格
USD/1,000トークン)
出力価格
USD/1,000トークン)
コンテキストウィンドウ
(入力トークン+出力トークン)
詳細情報
granite-13b-chat-v2 ibm/granite-13b-chat-v2 $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文
granite-13b-instruct-v2 ibm/granite-13b-instruct-v2 $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文
注:このfoundation modelは、迅速な調整が可能である。
granite-8b-japanese ibm/granite-8b-japanese $0.0006 $0.0006 4,096 - モデルカード
-ウェブサイト
-研究論文
granite-20b-multilingual ibm/granite-20b-multilingual $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文
granite-3-2b-instruct ibm/granite-3-2b-instruct $0.0001 $0.0001 131,072 - モデルカード
-ウェブサイト
-研究論文
granite-3-8b-instruct ibm/granite-3-8b-instruct $0.0002 $0.0002 131,072 - モデルカード
-ウェブサイト
-研究論文
granite-guardian-3-2b ibm/granite-guardian-3-2b $0.0001 $0.0001 131,072 - モデルカード
-ウェブサイト
granite-guardian-3-8b ibm/granite-guardian-3-8b $0.0002 $0.0002 131,072 - モデルカード
-ウェブサイト
granite-3b-code-instruct ibm/granite-3b-code-instruct $0.0006 $0.0006 128,000 - モデルカード
-ウェブサイト
-研究論文
granite-8b-code-instruct ibm/granite-8b-code-instruct $0.0006 $0.0006 128,000 - モデルカード
-ウェブサイト
-研究論文
granite-20b-code-instruct ibm/granite-20b-code-instruct $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文
granite-34b-code-instruct ibm/granite-34b-code-instruct $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文

 

watsonx.aiで提供されるサードパーティ基礎モデル

次の表は、 watsonx.ai で提供されている、サポートされているサードパーティ基礎モデルの一覧です。

使用量はリソース・ユニット(RU)で測定される。各ユニットは、foundation modelの推論の入力と出力から1,000トークンに相当する。 モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。

表 3. watsonx.aiで提供されるサードパーティ基礎モデル
モデル名 API model_id プロバイダー 入力価格
USD/1,000トークン)
出力価格
USD/1,000トークン)
コンテキストウィンドウ
(入力トークン+出力トークン)
詳細情報
allam-1-13b-instruct sdaia/allam-1-13b-instruct 国立人工知能センター、サウジアラビアデータ・人工知能庁 $0.0018 $0.0018 4,096 - モデルカード
codellama-34b-instruct codellama/codellama-34b-instruct-hf Code Llama $0.0018 $0.0018 16,384 - モデルカード
MetaAIブログ
elyza-japanese-llama-2-7b-instruct elyza/elyza-japanese-llama-2-7b-instruct ELYZA社 $0.0018 $0.0018 4,096 - モデルカード
-blog onnote.com
flan-t5-xl-3b google/flan-t5-xl Google $0.0006 $0.0006 4,096 - モデルカード
-研究論文
注:このfoundation modelは、迅速な調整が可能である。
flan-t5-xxl-11b google/flan-t5-xxl Google $0.0018 $0.0018 4,096 - モデルカード
-研究論文
flan-ul2-20b google/flan-ul2 Google $0.0050 $0.0050 4,096 - モデルカード
UL2リサーチペーパー
フラン・リサーチペーパー
jais-13b-chat core42/jais-13b-chat インセプション、モハメド・ビン・ザイード人工知能大学(MBZUAI)、セレブラス・システムズ $0.0018 $0.0018 2,048 - モデルカード
-研究論文
llama-3-3-70b-instruct meta-llama/llama-3-3-70b-instruct Meta $0.00071 $0.00071 131,072 - モデルカード
Meta AIブログ
llama-3-2-1b-instruct meta-llama/llama-3-2-1b-instruct Meta $0.0001 $0.0001 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-3-2-3b-instruct meta-llama/llama-3-2-3b-instruct Meta $0.00015 $0.00015 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-3-2-11b-vision-instruct meta-llama/llama-3-2-11b-vision-instruct Meta $0.00035 $0.00035 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-3-2-90b-vision-instruct meta-llama/llama-3-2-90b-vision-instruct Meta $0.0020 $0.0020 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-guard-3-11b-vision meta-llama/llama-guard-3-11b-vision Meta $0.00035 $0.00035 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-3-1-8b-instruct meta-llama/llama-3-1-8b-instruct Meta $0.0006 $0.0006 131,072 - モデルカード
Meta AIブログ
llama-3-1-70b-instruct meta-llama/llama-3-1-70b-instruct Meta $0.0018 $0.0018 131,072 - モデルカード
Meta AIブログ
llama-3-405b-instruct meta-llama/llama-3-405b-instruct Meta $0.0050 $0.016 16,384 - モデルカード
Meta AIブログ
llama-3-8b-instruct meta-llama/llama-3-8b-instruct Meta $0.0006 $0.0006 8,192 - モデルカード
Meta AIブログ
llama-3-70b-instruct meta-llama/llama-3-70b-instruct Meta $0.0018 $0.0018 8,192 - モデルカード
Meta AIブログ
llama-2-13b-chat meta-llama/llama-2-13b-chat Meta $0.0006 $0.0006 4,096 - モデルカード
-研究論文
mistral-large mistralai/mistral-large Mistral AI $0.003 $0.01 32,768 - モデルカード
- Mistral Large 22のブログ記事
mixtral-8x7b-instruct-v01 mistralai/mixtral-8x7b-instruct-v01 Mistral AI $0.0006 $0.0006 32,768 - モデルカード
-研究論文
mt0-xxl-13b bigscience/mt0-xxl BigScience $0.0018 $0.0018 4,096 - モデルカード
-研究論文
pixtral-12b mistralai/pixtral-12 Mistral AI $0.00035 $0.00035 128,000 - モデルカード
-Pixtral12Bのブログ記事

 

カスタム基盤モデル

IBMがキュレーションした基盤モデルで作業するだけでなく、独自の基盤モデルをアップロードしてデプロイすることもできます。 カスタムモデルが配備され watsonx.ai に登録されると、 Prompt Labや watsonx.ai API からカスタムモデルを推論するプロンプトを作成できるようになります。

カスタム・foundation modelのアップロード、登録、デプロイ方法の詳細については、カスタム・foundation modelのデプロイを参照してください。

オンデマンド基盤モデルの展開

IBMモデル・セットからfoundation modelを選択し、組織専用に展開します。

The following deploy on demand foundation models are available for you to deploy for inferencing in watsonx.ai:

  • granite-3-8b-base
  • granite-7b-lab
  • granite-13b-chat-v2
  • granite-13b-instruct-v2
  • granite-20b-code-base-schema-linking
  • granite-20b-code-base-sql-gen
  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • llama-2-13b-chat
  • llama-2-70b-chat
  • llama-3-8b-instruct
  • llama-3-70b-instruct
  • llama-3-1-8b
  • llama-3-1-8b-instruct
  • llama-3-1-70b-instruct
  • llama-3-3-70b-instruct
  • llama-3-3-70b-instruct-hf
  • mixtral-8x7b-base
  • mixtral-8x7b-instruct-v01
  • mistral-nemo-instruct-2407
  • mt0-xxl-13b

foundation modelをオンデマンドでデプロイする方法の詳細については、 基礎モデルをオンデマンドでデプロイするを参照してください。

IBMのオンデマンド基盤モデルを展開

次の表は、オンデマンドでデプロイ可能なIBMFoundation モデルの一覧です。

IBMのファンデーション・モデルのいくつかは、 Hugging Faceのようなサードパーティーのリポジトリからも入手できる。 サードパーティのリポジトリから取得した IBM Foundation モデルは、 IBM によって補償されません。 お客様が watsonx.ai からアクセスする IBM Foundation モデルのみが、 IBM によって補償されます。 IBMの補償に関連する契約上の保護の詳細については、 IBM Client Relationship Agreement および IBM watsonx.ai サービス説明を参照してください。

表 4. watsonx.aiでオンデマンドで展開可能なIBM基盤モデル
モデル名 1時間あたりの料金(米ドル モデル・ホスティング・カテゴリー コンテキストウィンドウ
(入力トークン+出力トークン)
granite-7b-lab $5.22 4,096
granite-13b-chat-v2 $5.22 8,192
granite-13b-instruct-v2 $5.22 8,192
granite-20b-code-base-schema-linking $5.22 8,192
granite-20b-code-base-sql-gen $5.22 8,192
granite-3-8b-base $5.22 4,096

 

サードパーティからのオンデマンド基盤モデルの展開

次の表は、オンデマンドでデプロイ可能なサードパーティの基盤モデルの一覧です。

表 5. watsonx.aiにオンデマンドでデプロイ可能なサードパーティの基盤モデル
モデル名 プロバイダー 1時間あたりの料金(米ドル モデル・ホスティング・カテゴリー コンテキストウィンドウ
(入力トークン+出力トークン)
flan-t5-xl-3b Google $5.22 4,096
flan-t5-xxl-11b Google $5.22 4,096
flan-ul2-20b Google $5.22 4,096
llama-2-13b-chat Meta $5.22 4,096
llama-2-70b-chat Meta $20.85 4,096
llama-3-8b-instruct Meta $5.22 8,192
llama-3-70b-instruct Meta $20.85 8,192
llama-3-1-8b Meta $5.22 131,072
llama-3-1-8b-instruct Meta $5.22 131,072
llama-3-1-70b-instruct Meta $20.85 131,072
llama-3-3-70b-instruct Meta $10.40 中間 131,072
llama-3-3-70b-instruct-hf Meta $20.85 131,072
mixtral-8x7b-base Mistral AI $10.40 中間 32,768
mixtral-8x7b-instruct-v01 Mistral AI $10.40 中間 32,768
mistral-nemo-instruct-2407 Mistral AI $5.22 131,072
mt0-xxl-13b BigScience $5.22 4,096

 

注:

mistral-large-instruct-2411 foundation model を Mistral AI から専用でホスティングする場合は、時間単位のアクセス料金が発生します。 mistral-large-instruct-2411 foundation model のオンデマンドデプロイメントのホスティング料金は、アクセス料金とホスティング料金の合計です。

ホスティング:$ 20.85 + アクセス:$ 34.30 = 合計:1時間あたり$ 55.15 USD

プロンプト・チューン・ファウンデーション・モデル

以下の基礎モデルは、watsonx.ai:でプロンプトチューニングすることでカスタマイズできます:

詳しくはTuning Studioをご覧ください。

詳細情報

親トピック 生成的AIソリューションの開発