翻訳が最新ではありません
watsonx.ai で使用可能なサポート対象の基盤モデル
オープン・ソース・モデルおよび IBM 基盤モデルの集合は、 IBM watsonx.aiにデプロイされます。
以下のモデルが watsonx.ai: で使用可能です。
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- gpt-neox-20b
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
- llama-2-13b-chat
- llama-2-70b-chat
- mpt-7b-instruct2
- mt0-xxl-13b
- starcoder-15.5b
これらのモデルは、プロンプト・ラボでプロンプトを出すことも、 Python ライブラリーを使用してプログラムでプロンプトを出すこともできます。
モデルの要約
モデル・プロバイダー、命令チューニング、トークン制限、およびその他の要因が、選択するモデルにどのような影響を与えるかを理解するには、 モデルの選択を参照してください。
以下の表に、 IBM が提供するサポート対象のファウンデーション・モデルをリストします。
モデル名 | プロバイダー | 調整された命令 | 請求クラス | 最大トークン コンテキスト (入力 + 出力) |
詳細情報 |
---|---|---|---|---|---|
granite-13b-chat-v2 | IBM | はい | クラス 2 | 8192 | モデル・カード Web サイト 調査資料 |
granite-13b-chat-v1 | IBM | はい | クラス 2 | 8192 | モデル・カード Web サイト 調査資料 |
granite-13b-instruct-v2 | IBM | はい | クラス 2 | 8192 | モデル・カード Web サイト 調査資料 |
granite-13b-instruct-v1 | IBM | はい | クラス 2 | 8192 | モデル・カード Web サイト 調査資料 |
以下の表に、サード・パーティーが Hugging Face を介して提供する、サポートされるファウンデーション・モデルをリストします。
モデル名 | プロバイダー | 調整された命令 | 請求クラス | 最大トークン コンテキスト (入力 + 出力) |
詳細情報 |
---|---|---|---|---|---|
flan-t5-xl-3b | はい | クラス 1 | 4096 | モデル・カード リサーチ・ペーパー |
|
flan-t5-xxl-11b | はい | クラス 2 | 4096 | モデル・カード リサーチ・ペーパー |
|
flan-ul2-20b | はい | クラス 3 | 4096 | モデル・カード UL2 リサーチ・ペーパー Flan リサーチ・ペーパー |
|
gpt-neox-20b | EleutherAI | いいえ | クラス 3 | 8192 | モデル・カード リサーチ・ペーパー |
llama-2-13b-chat | メタ | はい | クラス 1 | 4096 | モデル・カード リサーチ・ペーパー |
llama-2-70b-chat | メタ | はい | クラス 2 | 4096 | モデル・カード リサーチ・ペーパー |
mpt-7b-instruct2 | モザイク ML | はい | クラス 1 | 2048 | モデル・カード Web サイト |
mt0-xxl-13b | BigScience | はい | クラス 2 | 4096 | モデル・カード リサーチ・ペーパー |
starcoder-15.5b | BigCode | いいえ | クラス 2 | 8192 | モデル・カード リサーチ・ペーパー |
- 各リージョンのデータ・センターで提供されるモデルのリストについては、 ファウンデーション・モデルのリージョンの可用性を参照してください。
- 請求クラスおよびレート制限については、 Watson Machine Learning プランを参照してください。
基本モデルの詳細
使用可能な基盤モデルは、自然言語とプログラミング言語の両方のユース・ケースをサポートします。 これらのモデルで実行できるタスクのタイプを確認するには、 サンプル・プロンプトを確認して試します。
flan-t5-xl-3b
flan-t5-xxl-11b モデルは Google によって Hugging Face 上で提供されます。 このモデルは、事前にトレーニングされたテキストからテキストへの転送変換プログラム (T5) モデルに基づいており、インストラクションの微調整方式を使用して、ゼロ・ショットのパフォーマンスを向上させます。 また、このモデルは、推論タスクを実行する能力を向上させるために、思考チェーン・データを使用して微調整されます。
- 使用法
ゼロまたは少数のショット・プロンプトで一般的に使用されます。
- コスト
クラス 1. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
110 億個のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
英語、ドイツ語、フランス語
- 命令チューニング情報
このモデルは、従来の自然言語処理タスクに加えて、一連の思考データからの複数ステップの推論を伴うタスクで微調整されました。 使用されるトレーニング・データ・セットに関する詳細が公開されます。
- モデル・アーキテクチャー
エンコーダデコーダー
- 使用許諾条件
- 詳細はこちら
flan-t5-xxl-11b
flan-t5-xxl-11b モデルは Google によって Hugging Face 上で提供されます。 このモデルは、事前にトレーニングされたテキストからテキストへの転送変換プログラム (T5) モデルに基づいており、インストラクションの微調整方式を使用して、ゼロ・ショットのパフォーマンスを向上させます。 また、このモデルは、推論タスクを実行する能力を向上させるために、思考チェーン・データを使用して微調整されます。
- 使用法
ゼロまたは少数のショット・プロンプトで一般的に使用されます。
- コスト
クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプル・ノートブック: watsonx および LangChain を使用して、言語モデルに対して一連の呼び出しを行います。
- size
110 億個のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
英語、ドイツ語、フランス語
- 命令チューニング情報
このモデルは、従来の自然言語処理タスクに加えて、一連の思考データからの複数ステップの推論を伴うタスクで微調整されました。 使用されるトレーニング・データ・セットに関する詳細が公開されます。
- モデル・アーキテクチャー
エンコーダデコーダー
- 使用許諾条件
- 詳細はこちら
flan-ul2-20b
flan-ul2-20b モデルは、Hugging Face 上の Google によって提供されます。 このモデルは、統一言語学習パラダイム (UL2) を使用してトレーニングされました。 このモデルは、言語生成、言語理解、テキスト分類、質問への回答、常識的推論、長いテキスト推論、構造化知識の接地、情報検索、コンテキスト学習、ゼロ・ショット・プロンプト、およびワンショット・プロンプト用に最適化されています。
- 使用法
ゼロまたは少数のショット・プロンプトで一般的に使用されます。
- コスト
クラス 3. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプル・ノートブック: watsonx および LangChain を使用して、検索拡張世代 (RAG) を使用して質問に回答します。
サンプル・ノートブック: watsonx、 Elasticsearch、および LangChain を使用して質問 (RAG) に回答します。
サンプル・ノートブック: watsonx、および Elasticsearch Python SDK を使用して質問に答える (RAG)
- size
200 億個のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
英語
- 命令チューニング情報
flan-ul2-20b モデルは、共通クロールの Web クロール・コーパスの巨大なクリーンアップ・バージョンで事前トレーニングされています。 このモデルは、さまざまな自然言語処理タスク用に最適化するために、複数の事前トレーニング目標を使用して微調整されます。 使用されるトレーニング・データ・セットに関する詳細が公開されます。
- モデル・アーキテクチャー
エンコーダデコーダー
- 使用許諾条件
- 詳細はこちら
gpt-neox-20b
gpt-neox-20b モデルは、ハギング・フェイスの EleutherAI によって提供されます。 このモデルは、汎用ユース・ケースをサポートするためにさまざまな英語テキストでトレーニングされる自己回帰言語モデルです。 GPT-NeoX-20B はダウンストリーム・タスク用に微調整されていません。
- 使用法
Works best with ながら、少数のプロンプトを表示します。 構造化出力の生成に使用できる特殊文字を受け入れます。
トレーニングに使用されるデータ・セットには、不適切表現と不快なテキストが含まれています。 アプリケーションで使用する前に、モデルからの出力をすべてキュレートしてください。
- コスト
クラス 3. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
200 億個のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
英語
- トレーニング中に使用されるデータ
gpt-neox-20b モデルは、Pile でトレーニングされました。 Pile について詳しくは、 The Pile: An 800GB Dataset of 多様な Text for Language Modelingを参照してください。 パイルは訓練に使用される前に重複排除されなかった。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
- 詳細はこちら
granite-13b-chat-v2
granite-13b-chat-v2 モデルは IBMによって提供されています。 このモデルは対話のユース・ケース用に最適化されており、仮想エージェントおよびチャット・アプリケーションでうまく機能します。
- 使用法
チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。 簡潔応答を生成するための停止シーケンスとして使用できるキーワードを出力に含めます。
- コスト
クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
130 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされる自然言語
英語
- 命令チューニング情報
Granite ファミリーのモデルは、インターネット、学術、コード、法律、金融の 5 つの分野からのエンタープライズ関連データ・セットについてトレーニングされています。 モデルのトレーニングに使用されるデータは、最初に IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、憎悪、虐待、または不適切表現のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有します。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
IBM watsonx.aiに関連する契約上の保護について詳しくは、 IBM watsonx.ai サービスの説明を参照してください。
- 詳細はこちら
granite-13b-chat-v1
granite-13b-chat-v1 モデルは IBMによって提供されています。 このモデルは対話のユース・ケース用に最適化されており、仮想エージェントおよびチャット・アプリケーションでうまく機能します。
- 使用法
チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。 簡潔応答を生成するための停止シーケンスとして使用できるキーワードを出力に含めます。
- コスト
クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
130 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされる自然言語
英語
- 命令チューニング情報
Granite ファミリーのモデルは、インターネット、学術、コード、法律、金融の 5 つの分野からのエンタープライズ関連データ・セットについてトレーニングされています。 モデルのトレーニングに使用されるデータは、最初に IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、憎悪、虐待、または不適切表現のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有します。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
IBM watsonx.aiに関連する契約上の保護について詳しくは、 IBM watsonx.ai サービスの説明を参照してください。
- 詳細はこちら
granite-13b-instruct-v2
granite-13b-instruct-v2 モデルは、 IBMによって提供されています。 このモデルは、高品質の財務データを使用してトレーニングされており、財務タスクに関する優れたパフォーマンス・モデルです。 評価される財務タスクには、株式および所得の通話記録のセンチメント・スコアの提供、ニュースのヘッドラインの分類、信用リスク評価の抽出、金融の長形式テキストの要約、金融または保険関連の質問への回答が含まれます。
- 使用法
抽出、要約、および分類のタスクをサポートします。 財務関連タスクの有用な出力を生成します。 モデル固有のプロンプト形式を使用します。 構造化出力の生成に使用できる特殊文字を受け入れます。
- コスト
クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
130 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされる自然言語
英語
- 命令チューニング情報
Granite ファミリーのモデルは、インターネット、学術、コード、法律、金融の 5 つの分野からのエンタープライズ関連データ・セットについてトレーニングされています。 モデルのトレーニングに使用されるデータは、最初に IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、憎悪、虐待、または不適切表現のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有します。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
IBM watsonx.aiに関連する契約上の保護について詳しくは、 IBM watsonx.ai サービス記述書を参照してください。
- 詳細はこちら
granite-13b-instruct-v1
granite-13b-instruct-v1 モデルは、 IBMによって提供されています。 このモデルは、高品質の財務データを使用してトレーニングされており、財務タスクに関する優れたパフォーマンス・モデルです。 評価される財務タスクには、株式および所得の通話記録のセンチメント・スコアの提供、ニュースのヘッドラインの分類、信用リスク評価の抽出、金融の長形式テキストの要約、金融または保険関連の質問への回答が含まれます。
- 使用法
抽出、要約、および分類のタスクをサポートします。 財務関連タスクの有用な出力を生成します。 モデル固有のプロンプト形式を使用します。 構造化出力の生成に使用できる特殊文字を受け入れます。
- コスト
クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
130 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされる自然言語
英語
- 命令チューニング情報
Granite ファミリーのモデルは、インターネット、学術、コード、法律、金融の 5 つの分野からのエンタープライズ関連データ・セットについてトレーニングされています。 モデルのトレーニングに使用されるデータは、最初に IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、憎悪、虐待、または不適切表現のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有します。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
IBM watsonx.aiに関連する契約上の保護について詳しくは、 IBM watsonx.ai サービスの説明を参照してください。
- 詳細はこちら
Llama-2 チャット
Llama-2 チャット・モデルは、Meta on Hugging Face によって提供されます。 微調整されたモデルは、チャットの生成に役立ちます。 このモデルは、公開されているオンライン・データを使用して事前にトレーニングされ、人間のフィードバックからの強化学習を使用して微調整されます。
モデルのパラメーター・バージョンとして、130 億個のパラメーターを使用するか、700 億個のパラメーターを使用するかを選択できます。
- 使用法
チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。
- コスト
13b: クラス 1
70b: クラス 2
料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプル・ノートブック: 記事に関する質問に回答するには、 watsonx および Meta llama-2-70b-chat を使用します。
- 使用可能なサイズ
130 億のパラメーター
700 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
ライト・プランの出力は、以下のように制限されます。
- 70b バージョン: 900
- 13b バージョン: 2048
- サポートされる自然言語
英語
- 命令チューニング情報
Llama 2 は、公開されているソースからの 2 兆個のデータ・トークンについて事前にトレーニングされています。 微調整データには、公開されている命令データ・セットと、人間がアノテーションを付けた 100 万を超える新しい例が含まれています。
- モデル・アーキテクチャー
Llama 2 は、最適化されたトランスフォーマー・アーキテクチャーを使用する自動リグレッシブ・デコーダー専用言語モデルです。 チューニングされたバージョンでは、人間のフィードバックを使用して、監視された微調整と強化の学習を使用します。
- 使用許諾条件
- 詳細はこちら
mpt-7b-instruct2
mpt-7b-instruct2 モデルは、Hugging Face 上の MosaicML によって提供されます。 このモデルは、長い入力を処理するようにトレーニングされた基本 MosaicML 事前トレーニング Transformer (MPT) モデルの微調整バージョンです。 このバージョンのモデルは、短い形式の指示に従うために IBM によって最適化されました。
- 使用法
ゼロまたは少数のショット・プロンプトで一般的に使用されます。
- コスト
クラス 1. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
70 億個のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 2048
注: ライト・プランの出力は 500 に制限されています
- サポートされる自然言語
英語
- 命令チューニング情報
このモデルのトレーニングに使用されたデータ・セットは、データ・ブリックのドリー・データ・セットと、人間のフィードバックのトレーニング・データからの強化学習を備えた、ヘルプおよびハームレス・アシスタントのフィルタリングされたサブセットの組み合わせです。 フィルター操作中に、命令に続くステップを含むダイアログ交換の一部が抽出され、サンプルとして使用されました。
- モデル・アーキテクチャー
エンコーダデコーダー
- 使用許諾条件
- 詳細はこちら
mt0-xxl-13b
mt0-xxl-13b モデルは、ハギング・フェイスの BigScience によって提供されます。 このモデルは、英語、英語以外の言語、およびマルチリンガル・プロンプトを使用して、言語の生成と翻訳のタスクをサポートするように最適化されています。
- 使用法
ゼロまたは少数のショット・プロンプトで一般的に使用されます。 翻訳タスクの場合は、翻訳するテキストの終わりを示すピリオドを含めてください。そうしないと、モデルが文を翻訳するのではなく、文を継続する可能性があります。
- コスト
クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
130 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
このモデルは、マルチリンガル・データを 108 言語で事前にトレーニングし、マルチリンガル・タスクを実行するために 46 言語のマルチリンガル・データで微調整します。
- 命令チューニング情報
BigScience は、そのコードおよびデータ・セットに関する詳細を公開します。
- モデル・アーキテクチャー
エンコーダデコーダー
- 使用許諾条件
- 詳細はこちら
starcoder-15.5b
starcoder-15.5b モデルは、Hugging Face の BigCode によって提供されます。 このモデルは、コードを生成し、コードをあるプログラミング言語から別のプログラミング言語に変換することができます。 このモデルは、開発者が生産性を向上させるために使用することを意図しています。
- 使用法
コード生成とコード変換
注: モデル出力には、そのトレーニング・データから直接取得されるコードが含まれる場合があります。このコードは、帰属を必要とするライセンス・コードである場合があります。
- コスト
クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプル・ノートブック: watsonx および BigCode starcoder-15.5b を使用して、命令に基づいてコードを生成します。
- size
15.5 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされるプログラミング言語
80 を超えるプログラミング言語 ( Pythonに重点を置く)。
- トレーニング中に使用されるデータ
このモデルは、 GitHubから 80 を超えるプログラミング言語でトレーニングされました。 オプトアウト要求でマークされたライセンス・コードまたはコードをトレーニング・データから除外するためにフィルターが適用されました。 ただし、モデルの出力には、帰因を必要とするトレーニング・データからのコードが含まれる場合があります。 モデルは命令調整されませんでした。 命令のみを使用して入力をサブミットし、例を使用しないと、モデル出力が不適切になる可能性があります。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
- 詳細はこちら
親トピック: 基盤モデル