watsonx.ai での基盤モデルの選択

最終更新: 2025年4月10日
watsonx.ai での基盤モデルの選択

生成型AIプロジェクトからの推論に使用する基盤モデルを選択する際には、考慮すべき多くの要因があります。

例えば、コールセンターの問題報告を要約するソリューションの場合、次のような特性を持つ基盤モデルを希望するかもしれません

  • 要約タスクのベンチマークで高いスコアを獲得
  • 大量のテキストを処理できるため、コンテキストウィンドウの長さが大きい
  • 破損した物品の画像を解釈できるため、テキストと画像の両方の形式で入力を受け付ける

あなたとあなたの組織にとって、どの要素が最も重要かを見極める。

あなたのニーズに最も合うモデルの短いリストができたら、どのモデルが一貫してあなたが望む結果を返すかを確認するためにモデルをテストすることができます。

お客様のユース・ケースをサポートする基盤モデル

開始するには、実行するタスクのタイプを実行できる基盤モデルを見つけます。

以下の表は、 IBM watsonx.ai の基盤モデルでサポートされるタスクのタイプを示しています。 チェックマーク(✓)は、列見出しに記載されたタスク基盤モデルサポートされていることを示します。 一部のタスクでは、リンクをクリックするとそのタスクのサンプルプロンプトに移動できます。

表 1a. 基盤モデル・タスクのサポート
モデル 会話 ツールとの対話
チャットAPIから
検索補強世代(RAG) サンプル
granite-7b-lab
Prompt Labからのチャット

RAG from Prompt Lab

要約
granite-13b-instruct-v2
Prompt Labからのチャット

RAG from Prompt Lab

ジェネレーション
granite-8b-japanese
- Q&A
- 翻訳
granite-20b-multilingual
Prompt Labからのチャット

RAG from Prompt Lab

翻訳
granite-3-2-8b-instruct
サンプル:
• Prompt Lab から :サンプル
• Chat API から :サンプル
granite-3-2b-instruct
サンプル:
- Prompt Lab からのチャット
- チャット API から: サンプル

コード
granite-3-8b-instruct
サンプル:
- Prompt Lab からのチャット
- チャット API から: サンプル

・コール・サンプル

コード
granite-guardian-3-2b
Prompt Labからのチャット

RAG from Prompt Lab
granite-guardian-3-8b
Prompt Labからのチャット

RAG from Prompt Lab
granite-3b-code-instruct
Prompt Labからのチャット

コード
granite-8b-code-instruct
Prompt Labからのチャット

コード
granite-20b-code-instruct
サンプル:
• Prompt Lab
からチャット • チャット API(マルチテナント)から :サンプル

コード
granite-20b-code-base-schema-linking
コード
granite-20b-code-base-sql-gen
コード
granite-34b-code-instruct
サンプル:
• Prompt Lab
からチャット • チャット API(マルチテナント)から :サンプル

コード
granite-vision-3-2-2b
サンプル
- Prompt Lab からチャット: 画像付きチャット例
- チャットAPIから: サンプル
allam-1-13b-instruct
Prompt Labからのチャット

- 分類
- 翻訳
codellama-34b-instruct-hf
コード
deepseek-r1-distill-llama-8b
Q&A
deepseek-r1-distill-llama-70b
Q&A
elyza-japanese-llama-2-7b-instruct
- 分類
- 翻訳
eurollm-1-7b-instruct
Prompt Labからのチャット

- Q&A
- 翻訳
eurollm-9b-instruct
Prompt Labからのチャット

- Q&A
- 翻訳
flan-t5-xl-3b
RAG from Prompt Lab
flan-t5-xxl-11b
RAG from Prompt Lab

- Q&A
- 分類
- 要約
flan-ul2-20b
Prompt Lab
からの RAG • AutoAI (マルチテナント)からの RAG

- Q&A
- 分類
- 抽出
- 要約
jais-13b-chat
Prompt Labのチャット: サンプルチャット
llama-3-3-70b-instruct
サンプル:
• Prompt Lab からのチャット :サンプルチャット
• チャット API(マルチテナント)から :サンプル

マルチテナント: ツール呼び出しサンプル(マルチテナント

RAG from Prompt Lab
llama-3-2-1b-instruct
- Prompt Lab.のチャット: サンプルチャット
- チャット API から: サンプル

・コール・サンプル

RAG from Prompt Lab

コード
llama-3-2-3b-instruct
- Prompt Lab.のチャット: サンプルチャット
- チャット API から: サンプル

RAG from Prompt Lab

コード
llama-3-2-11b-vision-instruct
サンプル:
- Prompt Lab.からのチャット: 画像の例でチャット
- チャットAPIから: サンプル

・コール・サンプル

RAG from Prompt Lab
llama-3-2-90b-vision-instruct
サンプル:
- Prompt Lab.からのチャット: 画像の例でチャット
- チャットAPIから: サンプル

・コール・サンプル

RAG from Prompt Lab
llama-3-1-8b
Prompt Labのチャット: サンプルチャット

サンプル:
- Prompt Labの RAG
llama-3-1-8b-instruct
Prompt Lab からのチャット:サンプルチャット
• チャット API(マルチテナント)からのチャット:サンプル
マルチテナント: ✓
ツール呼び出しサンプル(マルチテナント

サンプル:
• Prompt Lab からの RAG
AutoAI からの RAG (マルチテナント )
llama-3-1-70b-instruct
サンプル:
• Prompt Lab からのチャット :サンプルチャット
• チャット API(マルチテナント)から :サンプル
マルチテナント: ✓
ツール呼び出しサンプル(マルチテナント

• Prompt Lab からの RAG
AutoAI からの RAG (マルチテナント )
llama-3-405b-instruct
- Prompt Lab.のチャット: サンプルチャット
- チャット API から: サンプル

・コール・サンプル

RAG from Prompt Lab
llama-3-8b-instruct
サンプル:
- Prompt Lab.からのチャット: サンプルチャット
- チャット API から: サンプル

RAG from Prompt Lab
llama-2-13b-chat
Prompt Labのチャット: サンプルチャット

RAG from Prompt Lab
llama-guard-3-11b-vision
サンプル:
- Prompt Lab.からのチャット: 画像の例でチャット
- チャットAPIから: サンプル

RAG from Prompt Lab

分類
mistral-large (マルチテナント) -instruct-2407 (専用)
mistral-large

サンプル:
• Prompt Lab
からチャット • チャット API(マルチテナント)から :サンプル

マルチテナント
ツール呼び出しサンプル(マルチテナント)

• Prompt Lab からの RAG
AutoAI からの RAG (マルチテナント )

- 分類
- 抽出
- 要約
- コード
- 翻訳
mistral-large-instruct-2411
サンプル:
• チャットから Prompt Lab

- Prompt Labの RAG

- 分類
- 抽出
- 要約
- コード
- 翻訳
mistral-nemo-instruct-2407
Prompt Labからのチャット

- Prompt Labの RAG

- 分類
- 抽出
- 生成
- 要約
- コード
- 翻訳
mistral-small-24b-instruct-2501
Prompt Labからのチャット

- Prompt Labの RAG

- 分類
- 抽出
- 生成
- 要約
- コード
- 翻訳
mixtral-8x7b-base
Prompt Labからのチャット

- Prompt Labの RAG

- 分類
- 抽出
- 生成
- 要約
- コード
- 翻訳
mixtral-8x7b-instruct-v01
Prompt Labからのチャット

• Prompt Lab からの RAG
AutoAI からの RAG (マルチテナント )

- 分類
- 抽出
- 生成
- 要約
- コード
- 翻訳
mt0-xxl-13b
RAG from Prompt Lab

- 分類
- Q&A
pixtral-12b
Prompt Labのチャット: 画像の例とチャット

RAG from Prompt Lab

- 分類
- 抽出
- 要約

 

マルチモーダル基礎モデル

マルチモーダル基礎モデルは、多くのモダリティやデータタイプからの情報を処理し、統合することができる。 これらのモダリティには、テキスト、画像、音声、ビデオ、その他の形式の感覚入力が含まれる。

watsonx.aiから入手可能なマルチモーダル基礎モデルは、以下のタイプのタスクを実行できる:

画像からテキストへの変換
視覚的な質問への回答、図表の解釈、画像のキャプション付けなどに便利です。

以下の表は、テキスト入力とテキスト出力以外のモダリティをサポートする利用可能な基礎モデルの一覧です。

表 1b. 対応するマルチモーダル基礎モデル
モデル 入力モダリティ 出力モダリティ
granite-vision-3-2-2b イメージ、テキスト テキスト
llama-4-maverick-17b-128e-instruct-fp8 イメージ、テキスト テキスト
llama-4-scout-17b-16e-instruct イメージ、テキスト テキスト
llama-3-2-11b-vision-instruct イメージ、テキスト テキスト
llama-3-2-90b-vision-instruct イメージ、テキスト テキスト
llama-guard-3-11b-vision イメージ、テキスト テキスト
pixtral-12b イメージ、テキスト テキスト

 

ご使用の言語をサポートする基盤モデル

多くの基盤モデルは英語でのみうまく機能します。 ただし、一部のモデル作成者は、さまざまな言語のタスクでモデルをファイン・チューニングしたり、複数の言語でモデルのパフォーマンスをテストしたりするために、事前トレーニング・データ・セットに複数の言語を組み込んでいます。 グローバル・オーディエンスのためのソリューション、または翻訳タスクを実行するソリューションを作成する予定の場合は、マルチリンガル・サポートを考慮して作成されたモデルを探してください。

以下の表に、 watsonx.aiの基盤モデルで英語に加えてサポートされる自然言語をリストします。 多言語基盤モデルでサポートされる言語について詳しくは、基盤モデルのモデル・カードを参照してください。

表 2. 英語以外の自然言語をサポートする基盤モデル
モデル 英語以外の言語
granite-8b-japanese 日本語
granite-20b-multilingual ドイツ語、スペイン語、フランス語、およびポルトガル語
Granite 3.2 (、 )に指示する。 granite-3-2-8b-instruct granite-vision-3-2-2b 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字)
Granite 3.1granite-3-2b-instruct、 granite-3-8b-instruct 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字)
Granite 3 granite-3-8b-base 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字)
allam-1-13b-instruct アラビア語
elyza-japanese-llama-2-7b-instruct 日本語
EuroLLM モデルを指導する ブルガリア語、クロアチア語、チェコ語、デンマーク語、オランダ語、英語、エストニア語、フィンランド語、フランス語、ドイツ語、ギリシャ語、ハンガリー語、アイルランド語、イタリア語、ラトビア語、リトアニア語、マルタ語、ポーランド語、ポルトガル語、ルーマニア語、スロバキア語、スロベニア語、スペイン語、スウェーデン語、アラビア語、カタロニア語、中国語、ガリシア語、ヒンディー語、日本語、韓国語、ノルウェー語、ロシア語、トルコ語、ウクライナ語
flan-t5-xl-3b 多言語対応(モデルカード参照)
flan-t5-xxl-11b フランス語、ドイツ語
jais-13b-chat アラビア語
ラマ 4 ( llama-4-maverick-17b-128e-instruct-fp8, llama-4-scout-17b-16e-instruct ) アラビア語、英語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語。
Llama 3.3 llama-3-3-70b-instruct, llama-3-3-70b-instruct-hf ) 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
Llama 3.2 (llama-3-2-1b-instruct、llama-3-2-3b-instruct)。 llama-3-2-11b-vision-instruct, llama-3-2-90b-vision-instruct, llama-guard-3-11b-vision もテキスト入力のみ) 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
Llama 3.1 (llama-3-1-8b-instruct, llama-3-1-70b-instruct, llama-3-405b-instruct) 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
mistral-large 多言語対応(モデルカード参照)
mistral-large-instruct-2411, mistral-nemo-instruct-2407, mistral-small-24b-instruct-2501 複数の言語、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語。
mixtral-8x7b-base, mixtral-8x7b-instruct-v01 フランス語、ドイツ語、イタリア語、スペイン語
mt0-xxl-13b 多言語対応(モデルカード参照)

 

チューニング可能なファウンデーション・モデル

watsonx.ai で使用可能ないくつかのファウンデーション・モデルは、ニーズに合わせて調整できます。

以下のチューニング方式がサポートされています。

  • プロンプトチューニング: 基盤モデルに含まれるプロンプトベクトルを調整するチューニング実験を実行します。 数回実行した後、 基盤モデルがタスクに適した出力を返すように導くのに最適なプロンプトベクトルを見つけます。

以下の表に、 IBM watsonx.aiで使用可能なファウンデーション・モデルのチューニング方法を示します。 チェックマーク(✓)は、列見出しに記載されたチューニング方法が、 基盤モデルでサポートされていることを示します。

表 3. 使用可能なチューニング方法
モデル名 プロンプトのチューニング
flan-t5-xl-3b
granite-13b-instruct-v2

詳しくは、 Tuning Studioを参照してください。

モデルの種類と知財補償

使用する基盤モデル知的財産補償方針を確認してください。 一部のサードパーティの基盤モデル は、そのAIモデルの使用に起因する可能性のある知的財産権侵害について免責することを要求しています。

IBM が開発した、watsonx.ai から入手可能な基盤モデルは、IBM がハードウェアやソフトウェア製品に提供しているものと同様に、標準的な知的財産権保護を受けています。

IBMは、その標準的な知的財産の補償を、対象モデルによって生成される出力にも拡大しています。 対象モデルには、IBMが開発したものと、watsonx.aiから入手可能なサードパーティ製の基盤モデルがあります。 サードパーティの対象モデルを表4に示す。

以下の表は、異なる基盤モデルと補償方針について説明しています。 詳細は参考資料を参照のこと。

表 4. 補償ポリシーの詳細
基礎モデルタイプ 補償方針 基盤モデル 詳細 参考資料
IBM カバー・モデル 上限なしのIBM補償 - IBM Granite
- IBM スレート板
IBM-developed foundation models that are available from watsonx.ai. 次のリソースを参照してください。
watsonx.ai ランタイムサービスの説明
watsonx.ai Studio サービスの説明
サードパーティモデル 上限IBM補償 Mistral Large watsonx.ai から入手可能な、サードパーティがカバーするモデル。 サービス内容をご覧ください
非 IBM 製品 IBM による補償はない 各種 watsonx.ai から入手可能なサードパーティのモデルは、関連する義務や制限を含め、それぞれのライセンス条項に従うものとします。 モデル情報を参照。
カスタム・モデル IBM による補償はない 各種 watsonx.ai で使用するためにインポートするファンデーション モデルは、クライアントのコンテンツです。 お客様は、モデルおよび出力の選択および使用、ならびに第三者のライセンス条件、義務および制限の遵守について、単独で責任を負うものとします。

 

サードパーティモデルライセンス条項の詳細については、 サードパーティ基盤モデル をご覧ください。

モデルの選択に関するその他の考慮事項

表 5. IBM watsonx.ai で基盤モデルを選択する際の考慮事項
モデル属性 考慮事項
コンテキストの長さ コンテキスト・ウィンドウ長コンテキスト・ウィンドウ、または 最大シーケンス長と呼ばれることもあります。コンテキスト長は、入力プロンプト内のトークン数に、生成される出力内のトークン数を加えた最大許容値です。 watsonx.aiでモデルを使用して出力を生成する場合、生成される出力内のトークンの数は最大トークン数パラメーターによって制限されます。
コスト 基盤モデルの使用コストは、リソース単位で測定されます。 リソースユニットの価格は、 基盤モデル価格帯のレートに基づいています。
微調整済み 基盤モデルが事前学習された後、多くの基盤モデルが特定のタスク、例えば分類、情報抽出、要約、指示への応答、質問への回答、または双方向のチャットへの参加などに向けて微調整されます。 計画した使用法に類似したタスクの微調整を行うモデルは、通常、お客様のユース・ケースに適合するように微調整されていないモデルよりも、ゼロ・ショット・プロンプトを使用する方が適しています。 微調整されたモデルの結果を改善する 1 つの方法は、そのモデルを微調整するために使用されたデータ・セットのプロンプトと同じ形式でプロンプトを構成することです。
調整された命令 Instruction-tuned は、命令を含むプロンプトでモデルが微調整されたことを意味します。 モデルが命令チューニングされている場合、通常は、指示があるプロンプトに例がない場合でも、それらのプロンプトに適切に応答します。
IP の補償 ライセンス条項に加えて、モデルの知的所有権の補償ポリシーを確認してください。 詳しくは、モデルの種類と知的財産権の補償をご覧ください。
ライセンス 一般に、各基盤モデルには、モデルの使用方法を制限する異なるライセンスが付属しています。 モデル・ライセンスを検討して、計画したソリューションにモデルを使用できることを確認します。
モデル・アーキテクチャー モデルのアーキテクチャーは、モデルの動作に影響します。 変換プログラム・ベースのモデルは、通常、以下のいずれかのアーキテクチャーを持ちます。
Encoder-only: 入力シーケンスを embeddings と呼ばれる表現ベクトルに変換することにより、センテンス・レベルで入力テキストを理解します。 エンコーダーのみのモデルの一般的なタスクには、分類とエンティティー抽出が含まれます。
デコーダーのみ: 入力シーケンスからの推論によって、ワード単位で出力テキストを生成します。 デコーダーのみのモデルの一般的なタスクには、テキストの生成と質問への回答が含まれます。
エンコーダー・デコーダー: どちらも入力テキストを認識し、入力テキストに基づいて出力テキストを生成します。 エンコーダー・デコーダー・モデルの一般的なタスクには、翻訳と要約が含まれます。
地域別の可用性 watsonx サービスと同じ IBM Cloud リージョンのデータ・センターで使用可能なモデルを処理できます。
サポートされるプログラミング言語 すべての基盤モデルがプログラミングのユース・ケースに適しているわけではありません。 コードの要約、変換、生成、またはその他の処理を行うソリューションの作成を計画している場合は、モデルの事前トレーニング・データ・セットに含まれているプログラミング言語とファイン・チューニングアクティビティーを検討して、そのモデルがユース・ケースに適合しているかどうかを判別してください。

詳細はこちら

親トピック: サポートされる基盤モデル