生成AIプロジェクトからの推論に使用するfoundation modelを選択する際に考慮すべき要素はたくさんある。
あなたとあなたの組織にとって、どの要素が最も重要かを見極める。
- モデルができるタスク
- マルチモーダル基礎モデル
- サポートされる言語
- モデルをカスタマイズするためのチューニングオプション
- ライセンスおよび知的財産補償条項
- サイズ、アーキテクチャ、およびコンテキスト ウィンドウの長さなどのモデル属性
あなたのニーズに最も合うモデルの短いリストができたら、どのモデルが一貫してあなたが望む結果を返すかを確認するためにモデルをテストすることができます。
お客様のユース・ケースをサポートする基盤モデル
開始するには、実行するタスクのタイプを実行できる基盤モデルを見つけます。
以下の表は、 IBM watsonx.ai の基盤モデルでサポートされるタスクのタイプを示しています。 チェックマーク(✓)は、カラムヘッダで指定されたタスクがfoundation modelでサポートされていることを示す。 一部のタスクでは、リンクをクリックするとそのタスクのサンプルプロンプトに移動できます。 また、タスクのタイプ別に分類されたプロンプトのサンプルについては、プロンプトのサンプルを参照してください。
モデル | 会話 | コード生成と変換 | チャットAPIからのツールインタラクション | *(分類、抽出、Q&A、要約) |
検索補強世代(RAG) | 翻訳 |
---|---|---|---|---|---|---|
granite-13b-instruct-v2 | Prompt Labからのチャット |
サンプル |
RAG from Prompt Lab |
|||
granite-8b-japanese | ✓ Q&Aサンプル |
サンプル |
||||
granite-20b-multilingual | Prompt Labからのチャット |
✓ | RAG from Prompt Lab |
サンプル |
||
granite-3-2b-instruct | サンプル: - Prompt Lab からのチャット - チャット API から: サンプル |
サンプル |
✓ | ✓ | ||
granite-3-8b-instruct | サンプル: - Prompt Lab からのチャット - チャット API から: サンプル |
サンプル |
・コール・サンプル |
✓ | ✓ | |
granite-guardian-3-2b | Prompt Labからのチャット |
✓ | RAG from Prompt Lab |
|||
granite-guardian-3-8b | Prompt Labからのチャット |
✓ | RAG from Prompt Lab |
|||
granite-3b-code-instruct | Prompt Labからのチャット |
サンプル |
||||
granite-8b-code-instruct | Prompt Labからのチャット |
サンプル |
||||
granite-20b-code-instruct | サンプル: - Prompt Lab からのチャット - チャット API から: サンプル |
サンプル |
||||
granite-20b-code-base-schema-linking | テキストからSQLへのコード |
|||||
granite-20b-code-base-sql-gen | テキストからSQLへのコード |
|||||
granite-34b-code-instruct | サンプル: - Prompt Lab からのチャット - チャット API から: サンプル |
サンプル |
||||
allam-1-13b-instruct | Prompt Labからのチャット |
サンプル |
サンプル |
|||
codellama-34b-instruct-hf | サンプル |
|||||
elyza-japanese-llama-2-7b-instruct | サンプル |
サンプル |
||||
flan-t5-xl-3b | ✓ | RAG from Prompt Lab |
||||
flan-t5-xxl-11b | ✓ サンプル -Q&A -分類 -要約 |
RAG from Prompt Lab |
✓ | |||
flan-ul2-20b | ✓ サンプル -Q&A -分類 -抽出 -要約 |
RAG from Prompt Lab - RAG from AutoAI |
||||
jais-13b-chat | ✓ Prompt Labのチャット: サンプルチャット |
✓ | ✓ | |||
llama-3-3-70b-instruct | サンプル: - Prompt Lab.からのチャット: サンプルチャット - チャット API から: サンプル |
・コール・サンプル |
✓ | RAG from Prompt Lab |
||
llama-3-2-1b-instruct | - Prompt Lab.のチャット: サンプルチャット - チャット API から: サンプル |
サンプル |
・コール・サンプル |
✓ | RAG from Prompt Lab |
|
llama-3-2-3b-instruct | - Prompt Lab.のチャット: サンプルチャット - チャット API から: サンプル |
サンプル |
✓ | RAG from Prompt Lab |
||
llama-3-2-11b-vision-instruct | サンプル: - Prompt Lab.からのチャット: 画像の例でチャット - チャットAPIから: サンプル |
・コール・サンプル |
✓ | RAG from Prompt Lab |
||
llama-3-2-90b-vision-instruct | サンプル: - Prompt Lab.からのチャット: 画像の例でチャット - チャットAPIから: サンプル |
・コール・サンプル |
RAG from Prompt Lab |
|||
llama-3-1-8b | ✓ Prompt Labのチャット: サンプルチャット |
✓ | ✓ | サンプル: - Prompt Labの RAG |
||
llama-3-1-8b-instruct | ✓ Prompt Labのチャット: サンプルチャット |
・コール・サンプル |
✓ | サンプル: - RAG from Prompt Lab - RAG from AutoAI |
||
llama-3-1-70b-instruct | サンプル: - Prompt Lab.からのチャット: サンプルチャット - チャット API から: サンプル |
・コール・サンプル |
✓ | - RAG from Prompt Lab - RAG from AutoAI |
||
llama-3-405b-instruct | - Prompt Lab.のチャット: サンプルチャット - チャット API から: サンプル |
・コール・サンプル |
✓ | RAG from Prompt Lab |
||
llama-3-8b-instruct | サンプル: - Prompt Lab.からのチャット: サンプルチャット - チャット API から: サンプル |
RAG from Prompt Lab |
||||
llama-3-70b-instruct | サンプル: - Prompt Lab.からのチャット: サンプルチャット - チャット API から: サンプル |
✓ | - RAG from Prompt Lab - RAG from AutoAI |
|||
llama-2-13b-chat | ✓ Prompt Labのチャット: サンプルチャット |
✓ | RAG from Prompt Lab |
|||
llama-guard-3-11b-vision | サンプル: - Prompt Lab.からのチャット: 画像の例でチャット - チャットAPIから: サンプル |
サンプル |
RAG from Prompt Lab |
|||
mistral-large | サンプル: - Prompt Lab からのチャット - チャット API から: サンプル |
サンプル |
・コール・サンプル |
✓ サンプル -分類 -抽出 -要約 |
- RAG from Prompt Lab - RAG from AutoAI |
翻訳 |
mixtral-8x7b-base | Prompt Labからのチャット |
サンプル |
✓ サンプル -分類 -抽出 -生成' -要約 |
- Prompt Labの RAG |
サンプル |
|
mixtral-8x7b-instruct-v01 | Prompt Labからのチャット |
サンプル |
✓ サンプル -分類 -抽出 -生成' -要約 |
- RAG from Prompt Lab - RAG from AutoAI |
サンプル |
|
mixtral-nemo-instruct-2407 | Prompt Labからのチャット |
サンプル |
✓ サンプル -分類 -抽出 -生成' -要約 |
- Prompt Labの RAG |
サンプル |
|
mt0-xxl-13b | サンプル -分類 -Q&A |
RAG from Prompt Lab |
||||
pixtral-12b | Prompt Labのチャット: 画像の例とチャット |
✓ | ✓ サンプル -分類 -抽出 -要約 |
RAG from Prompt Lab |
マルチモーダル基礎モデル
マルチモーダル基礎モデルは、多くのモダリティやデータタイプからの情報を処理し、統合することができる。 これらのモダリティには、テキスト、画像、音声、ビデオ、その他の形式の感覚入力が含まれる。
watsonx.aiから入手可能なマルチモーダル基礎モデルは、以下のタイプのタスクを実行できる:
- 画像からテキストへの変換
- 視覚的な質問への回答、図表の解釈、画像のキャプション付けなどに便利です。
以下の表は、テキスト入力とテキスト出力以外のモダリティをサポートする利用可能な基礎モデルの一覧です。
モデル | 入力モダリティ | 出力モダリティ |
---|---|---|
llama-3-2-11b-vision-instruct | イメージ、テキスト | テキスト |
llama-3-2-90b-vision-instruct | イメージ、テキスト | テキスト |
llama-guard-3-11b-vision | イメージ、テキスト | テキスト |
pixtral-12b | イメージ、テキスト | テキスト |
ご使用の言語をサポートする基盤モデル
多くの基盤モデルは英語でのみうまく機能します。 ただし、一部のモデル作成者は、さまざまな言語のタスクでモデルをファイン・チューニングしたり、複数の言語でモデルのパフォーマンスをテストしたりするために、事前トレーニング・データ・セットに複数の言語を組み込んでいます。 グローバル・オーディエンスのためのソリューション、または翻訳タスクを実行するソリューションを作成する予定の場合は、マルチリンガル・サポートを考慮して作成されたモデルを探してください。
以下の表に、 watsonx.aiの基盤モデルで英語に加えてサポートされる自然言語をリストします。 多言語基盤モデルでサポートされる言語について詳しくは、基盤モデルのモデル・カードを参照してください。
モデル | 英語以外の言語 |
---|---|
granite-8b-japanese | 日本語 |
granite-20b-multilingual | ドイツ語、スペイン語、フランス語、およびポルトガル語 |
Granite 3.1granite-3-2b-instruct、 granite-3-8b-instruct | 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字) |
Granite 3 granite-3-8b-base | 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字) |
allam-1-13b-instruct | アラビア語 |
elyza-japanese-llama-2-7b-instruct | 日本語 |
flan-t5-xl-3b | 多言語対応(モデルカード参照) |
flan-t5-xxl-11b | フランス語、ドイツ語 |
jais-13b-chat | アラビア語 |
Llama 3.3 llama-3-3-70b-instruct, llama-3-3-70b-instruct-hf ) | 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語 |
Llama 3.2 (llama-3-2-1b-instruct、llama-3-2-3b-instruct)。 llama-3-2-11b-vision-instruct, llama-3-2-90b-vision-instruct, llama-guard-3-11b-vision もテキスト入力のみ) | 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語 |
Llama 3.1 (llama-3-1-8b-instruct, llama-3-1-70b-instruct, llama-3-405b-instruct) | 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語 |
mistral-large | 多言語対応(モデルカード参照) |
mixtral-8x7b-base, mixtral-8x7b-instruct-v01 | フランス語、ドイツ語、イタリア語、スペイン語 |
mistral-nemo-instruct-2407 | 複数の言語、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語。 |
mt0-xxl-13b | 多言語対応(モデルカード参照) |
チューニング可能なファウンデーション・モデル
watsonx.ai で使用可能ないくつかのファウンデーション・モデルは、ニーズに合わせて調整できます。
以下のチューニング方式がサポートされています。
- プロンプトのチューニング:foundation modelの入力に含まれるプロンプトベクトルを調整するチューニング実験を実行する。 何度か実行した後、あなたのタスクに適した出力を返すようにfoundation modelモデルを最もよく導くことができるプロンプトベクトルを見つける。
以下の表に、 IBM watsonx.aiで使用可能なファウンデーション・モデルのチューニング方法を示します。 チェックマーク(✓)は、列のヘッダーにある名前のチューニングメソッドがfoundation modelでサポートされていることを示します。
モデル名 | プロンプトのチューニング |
---|---|
flan-t5-xl-3b | ✓ |
granite-13b-instruct-v2 | ✓ |
詳しくは、 Tuning Studioを参照してください。
モデルの種類と知財補償
使用したいfoundation modelモデルの知的財産補償方針を確認する。 サードパーティのfoundation modelプロバイダーの中には、そのAIモデルの使用から生じる可能性のある知的財産権侵害に対する責任を免除するよう求めるところもあります。
IBM が開発した、watsonx.ai から入手可能な基盤モデルは、IBM がハードウェアやソフトウェア製品に提供しているものと同様に、標準的な知的財産権保護を受けています。
IBMは、その標準的な知的財産の補償を、対象モデルによって生成される出力にも拡大しています。 対象モデルには、IBMが開発したものと、watsonx.aiから入手可能なサードパーティ製の基盤モデルがあります。 サードパーティの対象モデルを表4に示す。
以下の表は、さまざまなfoundation modelの種類とその補償方針について説明したものである。 詳細は参考資料を参照のこと。
基礎モデルタイプ | 補償方針 | 基盤モデル | 詳細 | 参考資料 |
---|---|---|---|---|
IBM 対象モデル | 上限なしのIBM補償 | - IBM Granite - IBM スレート板 |
IBMが開発した基盤モデルは、watsonx.aiから入手できる。 モデル出力に対するIBMIP 損害補償の適用範囲を維持するには、以下の対策を講じる必要があります: - 推論リクエストに AI ガードレールを適用する ' - 別サービスとして提供されているwatsonx.governance を使用して、foundation model出力のログと監視を行う |
サービスの説明 |
サードパーティモデル | 上限IBM補償 | Mistral Large | watsonx.aiから入手可能なサードパーティのカバーモデル。 モデル出力に対するIBMIP 損害補償の適用範囲を維持するには、以下の対策を講じる必要があります: - 推論リクエストに AI ガードレールを適用する ' - 別サービスとして提供されているwatsonx.governance を使用して、foundation model出力のログと監視を行う |
サービスの説明 |
非IBM製品 | IBM による補償はない | 各種 | watsonx.ai から入手可能なサードパーティのモデルは、関連する義務や制限を含め、それぞれのライセンス条項に従うものとします。 | モデル情報を参照。 |
カスタム・モデル | IBM による補償はない | 各種 | watsonx.ai で使用するためにインポートするファンデーション モデルは、クライアントのコンテンツです。 | お客様は、モデルおよび出力の選択および使用、ならびに第三者のライセンス条件、義務および制限の遵守について、単独で責任を負うものとします。 |
詳細については、以下のトピックをお読みください:
- AIガードレール
- watsonx.governanceの概要
- サポートされている基盤モデル (サードパーティ製モデルのライセンス条項へのリンクを含む)
モデルの選択に関するその他の考慮事項
モデル属性 | 考慮事項 |
---|---|
コンテキストの長さ | コンテキスト・ウィンドウ長、 コンテキスト・ウィンドウ、または 最大シーケンス長と呼ばれることもあります。コンテキスト長は、入力プロンプト内のトークン数に、生成される出力内のトークン数を加えた最大許容値です。 watsonx.aiでモデルを使用して出力を生成する場合、生成される出力内のトークンの数は最大トークン数パラメーターによって制限されます。 |
コスト | 基盤モデルの使用コストは、リソース単位で測定されます。 リソースユニットの価格は、foundation modelモデルの価格設定ティアのレートに基づく。 |
微調整済み | foundation modelが事前に訓練された後、多くの基礎モデルは、分類、情報抽出、要約、指示への応答、質問への回答、前後の対話チャットへの参加など、特定のタスクのために微調整される。 計画した使用法に類似したタスクの微調整を行うモデルは、通常、お客様のユース・ケースに適合するように微調整されていないモデルよりも、ゼロ・ショット・プロンプトを使用する方が適しています。 微調整されたモデルの結果を改善する 1 つの方法は、そのモデルを微調整するために使用されたデータ・セットのプロンプトと同じ形式でプロンプトを構成することです。 |
調整された命令 | Instruction-tuned は、命令を含むプロンプトでモデルが微調整されたことを意味します。 モデルが命令チューニングされている場合、通常は、指示があるプロンプトに例がない場合でも、それらのプロンプトに適切に応答します。 |
IP の補償 | ライセンス条項に加えて、モデルの知的所有権の補償ポリシーを確認してください。 詳しくは、モデルの種類と知的財産権の補償をご覧ください。 |
ライセンス | 一般に、各基盤モデルには、モデルの使用方法を制限する異なるライセンスが付属しています。 モデル・ライセンスを検討して、計画したソリューションにモデルを使用できることを確認します。 |
モデル・アーキテクチャー | モデルのアーキテクチャーは、モデルの動作に影響します。 変換プログラム・ベースのモデルは、通常、以下のいずれかのアーキテクチャーを持ちます。 Encoder-only: 入力シーケンスを embeddings と呼ばれる表現ベクトルに変換することにより、センテンス・レベルで入力テキストを理解します。 エンコーダーのみのモデルの一般的なタスクには、分類とエンティティー抽出が含まれます。 デコーダーのみ: 入力シーケンスからの推論によって、ワード単位で出力テキストを生成します。 デコーダーのみのモデルの一般的なタスクには、テキストの生成と質問への回答が含まれます。 エンコーダー・デコーダー: どちらも入力テキストを認識し、入力テキストに基づいて出力テキストを生成します。 エンコーダー・デコーダー・モデルの一般的なタスクには、翻訳と要約が含まれます。 |
地域別の可用性 | watsonx サービスと同じ IBM Cloud リージョンのデータ・センターで使用可能なモデルを処理できます。 |
サポートされるプログラミング言語 | すべての基盤モデルがプログラミングのユース・ケースに適しているわけではありません。 コードの要約、変換、生成、またはその他の処理を行うソリューションの作成を計画している場合は、モデルの事前トレーニング・データ・セットに含まれているプログラミング言語とファイン・チューニングアクティビティーを検討して、そのモデルがユース・ケースに適合しているかどうかを判別してください。 |
詳細情報
親トピック: サポートされる基盤モデル