0 / 0
資料の 英語版 に戻る
watsonx.ai でサポートされる基盤モデル
最終更新: 2024年12月18日
watsonx.ai でサポートされる基盤モデル

IBM watsonx.aiで推論するために、オープンソースとIBMの基礎モデルのコレクションが利用可能です。 ジェネレーティブAIアプリケーションのニーズと予算に最適な基盤モデルを見つけましょう。

watsonx.aiから推論に利用できる基礎モデルは、様々な方法でホストされている:

watsonx.aiで提供される財団モデル
IBM IBMマルチテナント・ハードウェア上にデプロイされ、推論に利用可能な、キュレーションされた基礎モデル。 使用したトークンで支払う。 watsonx.aiで提供されているFoundationモデルを参照してください。
オンデマンド基盤モデルの展開
あなたがデプロイする IBM、推論専用のfoundation modelのインスタンス。 配備へのアクセス権を与えられた同僚だけが、 foundation modelを推論できる。 専用の配備は、レート制限のない、より高速で応答性の高いインタラクションを意味します。 foundation modelのホスティング料金は時間単位で支払う。 オンデマンド基礎モデルの展開」を参照。
カスタム基盤モデル
watsonx.aiにインポートしてデプロイする、あなたによってキュレートされたファンデーションモデル。 デプロイしたカスタム・foundation modelモデルのインスタンスは、あなた専用のものです。 専用の配備は、より迅速で迅速な対応を意味します。 foundation modelのホスティング料金は時間単位で支払う。 カスタム・ファンデーション・モデルを参照。
プロンプト・チューン・ファウンデーション・モデル
利用可能な基礎モデルのサブセットで、APIまたはTuning Studioからモデルをプロンプトチューニングすることで、ニーズに合わせてカスタマイズすることができます。 プロンプト・チューニングされたfoundation modelは、基盤となるIBMの foundation modelに依存している。 モデルをチューニングするために消費するリソースの対価を支払う。 モデルが調整された後、モデルの推論に使用されるトークンで支払う。 プロンプト・チューンド・ファウンデーション・モデルを参照。

基礎モデルを自社のデータセンターに導入したい場合は、watsonx.aiソフトウェアを購入することができる。 詳細については、 IBM watsonx as a Service および IBM watsonx.governance ソフトウェアの概要を参照してください。

展開方法の比較

適切な配備方法を選択するために、比較表をご覧ください。

表 1. 基礎モデルの展開方法
デプロイメント・タイプ 使用可能開始 展開メカニズム ホスティング環境 請求方法 減価償却方針
watsonx.aiで提供される財団モデル - リソースハブ>トークンごとの支払い
- Prompt Lab
IBMによるキュレーションとデプロイメント マルチテナント・ハードウェア 使用メダル別 公表されたライフサイクルに従って非推奨
オンデマンド基盤モデルの展開 - リソース・ハブ>時間給
- Prompt Lab
お客様のご要望に応じて IBMがキュレーションし、デプロイします 専用ハードウェア 配備時間別 デプロイされたモデルは非推奨ではない
カスタム基盤モデル • Prompt Lab あなたによってキュレーションされ、展開される 専用ハードウェア 配備時間別 非推奨
プロンプト・チューン・ファウンデーション・モデル • Prompt Lab あなたによって調整され、展開される マルチテナント・ハードウェア - トレーニングはCUHの
請求される - 推論は使用されたトークンによって請求される
foundation modelとして基礎となるモデルを追加しない限り、基礎となるモデルが非推奨になったときに非推奨になる

モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。

展開方法別にサポートされる基盤モデル

watsonx.aiでは、すぐに使用できる、または組織で使用するための専用ハードウェアにデプロイできる、さまざまな基盤モデルをご用意しています。

表 1a. 展開方法別に利用可能な基礎モデル
プロバイダー watsonx.ai
で提供(トークンごとの支払い)
オンデマンドで展開
(時間単位での支払い)
IBM - granite-13b-chat-v2 (Deprecated)
- granite-13b-instruct-v2
- granite-7b-lab (Deprecated)
- granite-8b-japanese
- granite-3-8b-base
- granite-20b-multilingual
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
granite-13b-chat-v2
granite-13b-instruct-v2
granite-20b-code-base-schema-linking
granite-20b-code-base-sql-gen
Google flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
flan-t5-xl-3b
flan-t5-xxl-11b
flan-ul2-20b
メタ - llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision-instruct
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct (非推奨)
- llama-3-70b-instruct (非推奨)
- llama-2-13b-chat (非推奨)
- llama-3-3-70b-instruct
- llama-3-3-70b-instruct-hf
- llama-2-13b-chat
- llama-2-70b-chat
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-3-1-8b
- llama-3-1-8b-instruct
ミストラルAI mistral-large
mixtral-8x7b-instruct-v01
pixtral-12b
mixtral-8x7b-base
mixtral-8x7b-instruct-v01
mistral-nemo-instruct-2407
BigScience mt0-xxl-13b mt0-xxl-13b
Code Llama codellama-34b-instruct
ELYZA社 elyza-japanese-llama-2-7b-instruct
Inception jais-13b-chat
SDAIA allam-1-13b-instruct

watsonx.aiで提供される財団モデル

オープン・ソース・モデルおよび IBM 基盤モデルの集合は、 IBM watsonx.aiにデプロイされます。 これらの基礎モデルは、 Prompt Labまたはプログラムでプロンプトを出すことができます。

watsonx.aiで提供される IBM Foundationモデル

次の表は、 IBM推論用に提供している、サポートされている IBM 基盤モデルの一覧です。

使用量はリソース・ユニット(RU)で測定される。各ユニットは、foundation modelの推論の入力と出力から1,000トークンに相当する。 モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。

IBMのファンデーション・モデルのいくつかは、 Hugging Faceのようなサードパーティーのリポジトリからも入手できる。 サードパーティのリポジトリから取得した IBM Foundation モデルは、 IBM によって補償されません。 お客様が watsonx.ai からアクセスする IBM Foundation モデルのみが、 IBM によって補償されます。 IBMの補償に関連する契約上の保護の詳細については、 IBM Client Relationship Agreement および IBM watsonx.ai サービス説明を参照してください。

表 2. watsonx.aiで提供される IBM Foundationモデル
モデル名 入力価格
USD/1,000トークン)
出力価格
USD/1,000トークン)
コンテキストウィンドウ
(入力トークン+出力トークン)
詳細情報
granite-13b-chat-v2 $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文
granite-13b-instruct-v2 $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文
注:このfoundation modelは、迅速な調整が可能である。
granite-7b-lab $0.0006 $0.0006 8,192 - モデルカード
-研究論文(LAB)
granite-8b-japanese $0.0006 $0.0006 4,096 - モデルカード
-ウェブサイト
-研究論文
granite-20b-multilingual $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文
granite-3-2b-instruct $0.0001 $0.0001 131,072 - モデルカード
-ウェブサイト
-研究論文
granite-3-8b-instruct $0.0002 $0.0002 131,072 - モデルカード
-ウェブサイト
-研究論文
granite-guardian-3-2b $0.0001 $0.0001 8,192 - モデルカード
-ウェブサイト
granite-guardian-3-8b $0.0002 $0.0002 8,192 - モデルカード
-ウェブサイト
granite-3b-code-instruct $0.0006 $0.0006 128,000 - モデルカード
-ウェブサイト
-研究論文
granite-8b-code-instruct $0.0006 $0.0006 128,000 - モデルカード
-ウェブサイト
-研究論文
granite-20b-code-instruct $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文
granite-34b-code-instruct $0.0006 $0.0006 8,192 - モデルカード
-ウェブサイト
-研究論文

 

watsonx.aiで提供されるサードパーティ基礎モデル

次の表は、 watsonx.ai で提供されている、サポートされているサードパーティ基礎モデルの一覧です。

使用量はリソース・ユニット(RU)で測定される。各ユニットは、foundation modelの推論の入力と出力から1,000トークンに相当する。 モデル価格の計算方法と監視方法の詳細については、ジェネレーティブAI資産の課金詳細をご覧ください。

表 3. watsonx.aiで提供されるサードパーティ基礎モデル
モデル名 プロバイダー 入力価格
USD/1,000トークン)
出力価格
USD/1,000トークン)
コンテキストウィンドウ
(入力トークン+出力トークン)
詳細情報
allam-1-13b-instruct 国立人工知能センター、サウジアラビアデータ・人工知能庁 $0.0018 $0.0018 4,096 - モデルカード
codellama-34b-instruct Code Llama $0.0018 $0.0018 16,384 - モデルカード
MetaAIブログ
elyza-japanese-llama-2-7b-instruct ELYZA社 $0.0018 $0.0018 4,096 - モデルカード
-blog onnote.com
flan-t5-xl-3b Google $0.0006 $0.0006 4,096 - モデルカード
-研究論文
注:このfoundation modelは、迅速な調整が可能である。
flan-t5-xxl-11b Google $0.0018 $0.0018 4,096 - モデルカード
-研究論文
flan-ul2-20b Google $0.0050 $0.0050 4,096 - モデルカード
UL2リサーチペーパー
フラン・リサーチペーパー
jais-13b-chat インセプション、モハメド・ビン・ザイード人工知能大学(MBZUAI)、セレブラス・システムズ $0.0018 $0.0018 2,048 - モデルカード
-研究論文
llama-3-3-70b-instruct Meta $0.0018 $0.0018 131,072 - モデルカード
Meta AIブログ
llama-3-2-1b-instruct Meta $0.0001 $0.0001 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-3-2-3b-instruct Meta $0.00015 $0.00015 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-3-2-11b-vision-instruct Meta $0.00035 $0.00035 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-3-2-90b-vision-instruct Meta $0.0020 $0.0020 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-guard-3-11b-vision Meta $0.00035 $0.00035 131,072 - モデルカード
Meta AIブログ
」-研究論文
llama-3-1-8b-instruct Meta $0.0006 $0.0006 131,072 - モデルカード
Meta AIブログ
llama-3-1-70b-instruct Meta $0.0018 $0.0018 131,072 - モデルカード
Meta AIブログ
llama-3-405b-instruct Meta $0.0050 $0.016 16,384 - モデルカード
Meta AIブログ
llama-3-8b-instruct Meta $0.0006 $0.0006 8,192 - モデルカード
Meta AIブログ
llama-3-70b-instruct Meta $0.0018 $0.0018 8,192 - モデルカード
Meta AIブログ
llama-2-13b-chat Meta $0.0006 $0.0006 4,096 - モデルカード
-研究論文
mistral-large Mistral AI $0.003 $0.01 32,768 - モデルカード
- Mistral Large 22のブログ記事
mixtral-8x7b-instruct-v01 Mistral AI $0.0006 $0.0006 32,768 - モデルカード
-研究論文
mt0-xxl-13b BigScience $0.0018 $0.0018 4,096 - モデルカード
-研究論文
pixtral-12b Mistral AI $0.00035 $0.00035 128,000 - モデルカード
-Pixtral12Bのブログ記事

 

カスタム基盤モデル

IBMがキュレーションした基盤モデルで作業するだけでなく、独自の基盤モデルをアップロードしてデプロイすることもできます。 カスタムモデルが配備され watsonx.ai に登録されると、 Prompt Labや watsonx.ai API からカスタムモデルを推論するプロンプトを作成できるようになります。

カスタム・foundation modelのアップロード、登録、デプロイ方法の詳細については、カスタム・foundation modelのデプロイを参照してください。

オンデマンド基盤モデルの展開

IBMモデル・セットからfoundation modelを選択し、組織専用に展開します。

foundation modelをオンデマンドでデプロイする方法の詳細については、 基礎モデルをオンデマンドでデプロイするを参照してください。

注:オンデマンドで展開できるファウンデーション・モデルは、ダラス・データセンターでのみ利用可能です。

IBMのオンデマンド基盤モデルを展開

次の表は、オンデマンドでデプロイ可能なIBMFoundation モデルの一覧です。

IBMのファンデーション・モデルのいくつかは、 Hugging Faceのようなサードパーティーのリポジトリからも入手できる。 サードパーティのリポジトリから取得した IBM Foundation モデルは、 IBM によって補償されません。 お客様が watsonx.ai からアクセスする IBM Foundation モデルのみが、 IBM によって補償されます。 IBMの補償に関連する契約上の保護の詳細については、 IBM Client Relationship Agreement および IBM watsonx.ai サービス説明を参照してください。

表 4. watsonx.aiでオンデマンドで展開可能なIBM基盤モデル
モデル名 1時間あたりの料金(米ドル モデル・ホスティング・カテゴリー コンテキストウィンドウ
(入力トークン+出力トークン)
granite-13b-chat-v2 $5.22 8,192
granite-13b-instruct-v2 $5.22 8,192
granite-20b-code-base-schema-linking $5.22 8,192
granite-20b-code-base-sql-gen $5.22 8,192
granite-3-8b-base $5.22 4,096

 

サードパーティからのオンデマンド基盤モデルの展開

次の表は、オンデマンドでデプロイ可能なサードパーティの基盤モデルの一覧です。

表 5. watsonx.aiにオンデマンドでデプロイ可能なサードパーティの基盤モデル
モデル名 プロバイダー 1時間あたりの料金(米ドル モデル・ホスティング・カテゴリー コンテキストウィンドウ
(入力トークン+出力トークン)
flan-t5-xl-3b Google $5.22 4,096
flan-t5-xxl-11b Google $5.22 4,096
flan-ul2-20b Google $5.22 4,096
llama-2-13b-chat Meta $5.22 4,096
llama-2-70b-chat Meta $20.85 4,096
llama-3-8b-instruct Meta $5.22 8,192
llama-3-70b-instruct Meta $20.85 8,192
llama-3-1-8b Meta $5.22 131,072
llama-3-1-8b-instruct Meta $5.22 131,072
llama-3-3-70b-instruct Meta $10.40 中間 8,192
llama-3-3-70b-instruct-hf Meta $20.85 8,192
mixtral-8x7b-base Mistral AI $10.40 中間 32,768
mixtral-8x7b-instruct-v01 Mistral AI $10.40 中間 32,768
mistral-nemo-instruct-2407 Mistral AI $5.22 131,072
mt0-xxl-13b BigScience $5.22 4,096

 

プロンプト・チューン・ファウンデーション・モデル

以下の基礎モデルは、watsonx.ai:でプロンプトチューニングすることでカスタマイズできます:

詳しくはTuning Studioをご覧ください。

詳細情報

親トピック 生成的AIソリューションの開発

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細