0 / 0
資料の 英語版 に戻る
watsonx.ai で使用可能なサポート対象の基盤モデル

watsonx.ai で使用可能なサポート対象の基盤モデル

オープン・ソース・モデルおよび IBM 基盤モデルの集合は、 IBM watsonx.aiにデプロイされます。

以下のモデルが watsonx.ai: で使用可能です。

  • flan-t5-xl-3b
  • flan-t5-xxl-11b
  • flan-ul2-20b
  • gpt-neox-20b
  • granite-13b-chat-v2
  • granite-13b-chat-v1
  • granite-13b-instruct-v2
  • granite-13b-instruct-v1
  • llama-2-13b-chat
  • llama-2-70b-chat
  • mpt-7b-instruct2
  • mt0-xxl-13b
  • starcoder-15.5b

 

これらのモデルは、プロンプト・ラボでプロンプトを出すことも、 Python ライブラリーを使用してプログラムでプロンプトを出すこともできます。

モデルの要約

モデル・プロバイダー、命令チューニング、トークン制限、およびその他の要因が、選択するモデルにどのような影響を与えるかを理解するには、 モデルの選択を参照してください。

以下の表に、 IBM が提供するサポート対象のファウンデーション・モデルをリストします。

テーブル1。 watsonx.ai の IBM ファウンデーション・モデル
モデル名 プロバイダー 調整された命令 請求クラス 最大トークン
コンテキスト (入力 + 出力)
詳細情報
granite-13b-chat-v2 IBM はい クラス 2 8192 モデル・カード
Web サイト
調査資料
granite-13b-chat-v1 IBM はい クラス 2 8192 モデル・カード
Web サイト
調査資料
granite-13b-instruct-v2 IBM はい クラス 2 8192 モデル・カード
Web サイト
調査資料
granite-13b-instruct-v1 IBM はい クラス 2 8192 モデル・カード
Web サイト
調査資料

 

以下の表に、サード・パーティーが Hugging Face を介して提供する、サポートされるファウンデーション・モデルをリストします。

テーブル2。 watsonx.ai でサポートされるサード・パーティーのファウンデーション・モデル
モデル名 プロバイダー 調整された命令 請求クラス 最大トークン
コンテキスト (入力 + 出力)
詳細情報
flan-t5-xl-3b Google はい クラス 1 4096 モデル・カード
リサーチ・ペーパー
flan-t5-xxl-11b Google はい クラス 2 4096 モデル・カード
リサーチ・ペーパー
flan-ul2-20b Google はい クラス 3 4096 モデル・カード
UL2 リサーチ・ペーパー
Flan リサーチ・ペーパー
gpt-neox-20b EleutherAI いいえ クラス 3 8192 モデル・カード
リサーチ・ペーパー
llama-2-13b-chat メタ はい クラス 1 4096 モデル・カード
リサーチ・ペーパー
llama-2-70b-chat メタ はい クラス 2 4096 モデル・カード
リサーチ・ペーパー
mpt-7b-instruct2 モザイク ML はい クラス 1 2048 モデル・カード
Web サイト
mt0-xxl-13b BigScience はい クラス 2 4096 モデル・カード
リサーチ・ペーパー
starcoder-15.5b BigCode いいえ クラス 2 8192 モデル・カード
リサーチ・ペーパー

 

 

基本モデルの詳細

使用可能な基盤モデルは、自然言語とプログラミング言語の両方のユース・ケースをサポートします。 これらのモデルで実行できるタスクのタイプを確認するには、 サンプル・プロンプトを確認して試します。

flan-t5-xl-3b

flan-t5-xxl-11b モデルは Google によって Hugging Face 上で提供されます。 このモデルは、事前にトレーニングされたテキストからテキストへの転送変換プログラム (T5) モデルに基づいており、インストラクションの微調整方式を使用して、ゼロ・ショットのパフォーマンスを向上させます。 また、このモデルは、推論タスクを実行する能力を向上させるために、思考チェーン・データを使用して微調整されます。

使用法

ゼロまたは少数のショット・プロンプトで一般的に使用されます。

コスト

クラス 1. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

110 億個のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

英語、ドイツ語、フランス語

命令チューニング情報

このモデルは、従来の自然言語処理タスクに加えて、一連の思考データからの複数ステップの推論を伴うタスクで微調整されました。 使用されるトレーニング・データ・セットに関する詳細が公開されます。

モデル・アーキテクチャー

エンコーダデコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細はこちら

調査資料

モデル・カード

flan-t5-xxl-11b

flan-t5-xxl-11b モデルは Google によって Hugging Face 上で提供されます。 このモデルは、事前にトレーニングされたテキストからテキストへの転送変換プログラム (T5) モデルに基づいており、インストラクションの微調整方式を使用して、ゼロ・ショットのパフォーマンスを向上させます。 また、このモデルは、推論タスクを実行する能力を向上させるために、思考チェーン・データを使用して微調整されます。

使用法

ゼロまたは少数のショット・プロンプトで一般的に使用されます。

コスト

クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

サンプル・ノートブック: watsonx および Google flan-t5-xxl を使用して広告コピーを生成する

サンプル・ノートブック: watsonx および LangChain を使用して、言語モデルに対して一連の呼び出しを行います。

size

110 億個のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

英語、ドイツ語、フランス語

命令チューニング情報

このモデルは、従来の自然言語処理タスクに加えて、一連の思考データからの複数ステップの推論を伴うタスクで微調整されました。 使用されるトレーニング・データ・セットに関する詳細が公開されます。

モデル・アーキテクチャー

エンコーダデコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細はこちら

調査資料

モデル・カード

flan-ul2-20b

flan-ul2-20b モデルは、Hugging Face 上の Google によって提供されます。 このモデルは、統一言語学習パラダイム (UL2) を使用してトレーニングされました。 このモデルは、言語生成、言語理解、テキスト分類、質問への回答、常識的推論、長いテキスト推論、構造化知識の接地、情報検索、コンテキスト学習、ゼロ・ショット・プロンプト、およびワンショット・プロンプト用に最適化されています。

使用法

ゼロまたは少数のショット・プロンプトで一般的に使用されます。

コスト

クラス 3. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

サンプル・ノートブック: watsonx を使用したサイバー・セキュリティー文書の要約

サンプル・ノートブック: watsonx および LangChain を使用して、検索拡張世代 (RAG) を使用して質問に回答します。

サンプル・ノートブック: watsonx、 Elasticsearch、および LangChain を使用して質問 (RAG) に回答します。

サンプル・ノートブック: watsonx、および Elasticsearch Python SDK を使用して質問に答える (RAG)

size

200 億個のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

英語

命令チューニング情報

flan-ul2-20b モデルは、共通クロールの Web クロール・コーパスの巨大なクリーンアップ・バージョンで事前トレーニングされています。 このモデルは、さまざまな自然言語処理タスク用に最適化するために、複数の事前トレーニング目標を使用して微調整されます。 使用されるトレーニング・データ・セットに関する詳細が公開されます。

モデル・アーキテクチャー

エンコーダデコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細はこちら

統一言語学習 (UL2) の調査資料

Fine-tuned Language Model (Flan) の調査資料

モデル・カード

gpt-neox-20b

gpt-neox-20b モデルは、ハギング・フェイスの EleutherAI によって提供されます。 このモデルは、汎用ユース・ケースをサポートするためにさまざまな英語テキストでトレーニングされる自己回帰言語モデルです。 GPT-NeoX-20B はダウンストリーム・タスク用に微調整されていません。

使用法

Works best with ながら、少数のプロンプトを表示します。 構造化出力の生成に使用できる特殊文字を受け入れます。

トレーニングに使用されるデータ・セットには、不適切表現と不快なテキストが含まれています。 アプリケーションで使用する前に、モデルからの出力をすべてキュレートしてください。

コスト

クラス 3. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

200 億個のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

英語

トレーニング中に使用されるデータ

gpt-neox-20b モデルは、Pile でトレーニングされました。 Pile について詳しくは、 The Pile: An 800GB Dataset of 多様な Text for Language Modelingを参照してください。 パイルは訓練に使用される前に重複排除されなかった。

モデル・アーキテクチャー

デコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細はこちら

調査資料

モデル・カード

granite-13b-chat-v2

granite-13b-chat-v2 モデルは IBMによって提供されています。 このモデルは対話のユース・ケース用に最適化されており、仮想エージェントおよびチャット・アプリケーションでうまく機能します。

使用法

チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。 簡潔応答を生成するための停止シーケンスとして使用できるキーワードを出力に含めます。

コスト

クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

130 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされる自然言語

英語

命令チューニング情報

Granite ファミリーのモデルは、インターネット、学術、コード、法律、金融の 5 つの分野からのエンタープライズ関連データ・セットについてトレーニングされています。 モデルのトレーニングに使用されるデータは、最初に IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、憎悪、虐待、または不適切表現のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有します。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

IBM watsonx.aiに関連する契約上の保護について詳しくは、 IBM watsonx.ai サービスの説明を参照してください。

詳細はこちら

モデル情報

調査資料

モデル・カード

granite-13b-chat-v1

granite-13b-chat-v1 モデルは IBMによって提供されています。 このモデルは対話のユース・ケース用に最適化されており、仮想エージェントおよびチャット・アプリケーションでうまく機能します。

使用法

チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。 簡潔応答を生成するための停止シーケンスとして使用できるキーワードを出力に含めます。

コスト

クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

130 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされる自然言語

英語

命令チューニング情報

Granite ファミリーのモデルは、インターネット、学術、コード、法律、金融の 5 つの分野からのエンタープライズ関連データ・セットについてトレーニングされています。 モデルのトレーニングに使用されるデータは、最初に IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、憎悪、虐待、または不適切表現のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有します。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

IBM watsonx.aiに関連する契約上の保護について詳しくは、 IBM watsonx.ai サービスの説明を参照してください。

詳細はこちら

モデル情報

調査資料

モデル・カード

granite-13b-instruct-v2

granite-13b-instruct-v2 モデルは、 IBMによって提供されています。 このモデルは、高品質の財務データを使用してトレーニングされており、財務タスクに関する優れたパフォーマンス・モデルです。 評価される財務タスクには、株式および所得の通話記録のセンチメント・スコアの提供、ニュースのヘッドラインの分類、信用リスク評価の抽出、金融の長形式テキストの要約、金融または保険関連の質問への回答が含まれます。

使用法

抽出、要約、および分類のタスクをサポートします。 財務関連タスクの有用な出力を生成します。 モデル固有のプロンプト形式を使用します。 構造化出力の生成に使用できる特殊文字を受け入れます。

コスト

クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル 3b: 特定のテーマに関する番号付きリストの生成

サンプル 4c: 文書に基づく質問への回答

サンプル 4d: 一般的な秘密の質問への回答

サンプル・ノートブック: watsonx および ibm/granite-13b-instruct に指示する

size

130 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされる自然言語

英語

命令チューニング情報

Granite ファミリーのモデルは、インターネット、学術、コード、法律、金融の 5 つの分野からのエンタープライズ関連データ・セットについてトレーニングされています。 モデルのトレーニングに使用されるデータは、最初に IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、憎悪、虐待、または不適切表現のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有します。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

IBM watsonx.aiに関連する契約上の保護について詳しくは、 IBM watsonx.ai サービス記述書を参照してください。

詳細はこちら

モデル情報

調査資料

モデル・カード

granite-13b-instruct-v1

granite-13b-instruct-v1 モデルは、 IBMによって提供されています。 このモデルは、高品質の財務データを使用してトレーニングされており、財務タスクに関する優れたパフォーマンス・モデルです。 評価される財務タスクには、株式および所得の通話記録のセンチメント・スコアの提供、ニュースのヘッドラインの分類、信用リスク評価の抽出、金融の長形式テキストの要約、金融または保険関連の質問への回答が含まれます。

使用法

抽出、要約、および分類のタスクをサポートします。 財務関連タスクの有用な出力を生成します。 モデル固有のプロンプト形式を使用します。 構造化出力の生成に使用できる特殊文字を受け入れます。

コスト

クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル 3b: 特定のテーマに関する番号付きリストの生成

サンプル 4d: 一般的な秘密の質問への回答

サンプル・ノートブック: watsonx および ibm/granite-13b-instruct に指示する

size

130 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされる自然言語

英語

命令チューニング情報

Granite ファミリーのモデルは、インターネット、学術、コード、法律、金融の 5 つの分野からのエンタープライズ関連データ・セットについてトレーニングされています。 モデルのトレーニングに使用されるデータは、最初に IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、憎悪、虐待、または不適切表現のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有します。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

IBM watsonx.aiに関連する契約上の保護について詳しくは、 IBM watsonx.ai サービスの説明を参照してください。

詳細はこちら

モデル情報

調査資料

モデル・カード

Llama-2 チャット

Llama-2 チャット・モデルは、Meta on Hugging Face によって提供されます。 微調整されたモデルは、チャットの生成に役立ちます。 このモデルは、公開されているオンライン・データを使用して事前にトレーニングされ、人間のフィードバックからの強化学習を使用して微調整されます。

モデルのパラメーター・バージョンとして、130 億個のパラメーターを使用するか、700 億個のパラメーターを使用するかを選択できます。

使用法

チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。

コスト

13b: クラス 1

70b: クラス 2

料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

サンプル・ノートブック: 記事に関する質問に回答するには、 watsonx および Meta llama-2-70b-chat を使用します。

使用可能なサイズ

130 億のパラメーター

700 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

ライト・プランの出力は、以下のように制限されます。

  • 70b バージョン: 900
  • 13b バージョン: 2048
サポートされる自然言語

英語

命令チューニング情報

Llama 2 は、公開されているソースからの 2 兆個のデータ・トークンについて事前にトレーニングされています。 微調整データには、公開されている命令データ・セットと、人間がアノテーションを付けた 100 万を超える新しい例が含まれています。

モデル・アーキテクチャー

Llama 2 は、最適化されたトランスフォーマー・アーキテクチャーを使用する自動リグレッシブ・デコーダー専用言語モデルです。 チューニングされたバージョンでは、人間のフィードバックを使用して、監視された微調整と強化の学習を使用します。

使用許諾条件

使用許諾条件

詳細はこちら

調査資料

13b モデル・カード

70b モデル・カード

mpt-7b-instruct2

mpt-7b-instruct2 モデルは、Hugging Face 上の MosaicML によって提供されます。 このモデルは、長い入力を処理するようにトレーニングされた基本 MosaicML 事前トレーニング Transformer (MPT) モデルの微調整バージョンです。 このバージョンのモデルは、短い形式の指示に従うために IBM によって最適化されました。

使用法

ゼロまたは少数のショット・プロンプトで一般的に使用されます。

コスト

クラス 1. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

70 億個のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 2048

: ライト・プランの出力は 500 に制限されています

サポートされる自然言語

英語

命令チューニング情報

このモデルのトレーニングに使用されたデータ・セットは、データ・ブリックのドリー・データ・セットと、人間のフィードバックのトレーニング・データからの強化学習を備えた、ヘルプおよびハームレス・アシスタントのフィルタリングされたサブセットの組み合わせです。 フィルター操作中に、命令に続くステップを含むダイアログ交換の一部が抽出され、サンプルとして使用されました。

モデル・アーキテクチャー

エンコーダデコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細はこちら

モデル・カード

ブログ

mt0-xxl-13b

mt0-xxl-13b モデルは、ハギング・フェイスの BigScience によって提供されます。 このモデルは、英語、英語以外の言語、およびマルチリンガル・プロンプトを使用して、言語の生成と翻訳のタスクをサポートするように最適化されています。

使用法

ゼロまたは少数のショット・プロンプトで一般的に使用されます。 翻訳タスクの場合は、翻訳するテキストの終わりを示すピリオドを含めてください。そうしないと、モデルが文を翻訳するのではなく、文を継続する可能性があります。

コスト

クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

サンプル・ノートブック: watsonx.aiを使用した取得拡張世代の簡単な概要

size

130 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

このモデルは、マルチリンガル・データを 108 言語で事前にトレーニングし、マルチリンガル・タスクを実行するために 46 言語のマルチリンガル・データで微調整します。

命令チューニング情報

BigScience は、そのコードおよびデータ・セットに関する詳細を公開します。

モデル・アーキテクチャー

エンコーダデコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細はこちら

調査資料

モデル・カード

starcoder-15.5b

starcoder-15.5b モデルは、Hugging Face の BigCode によって提供されます。 このモデルは、コードを生成し、コードをあるプログラミング言語から別のプログラミング言語に変換することができます。 このモデルは、開発者が生産性を向上させるために使用することを意図しています。

使用法

コード生成とコード変換

注: モデル出力には、そのトレーニング・データから直接取得されるコードが含まれる場合があります。このコードは、帰属を必要とするライセンス・コードである場合があります。

コスト

クラス 2. 料金の詳細については、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

サンプル・ノートブック: watsonx および BigCode starcoder-15.5b を使用して、命令に基づいてコードを生成します。

size

15.5 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされるプログラミング言語

80 を超えるプログラミング言語 ( Pythonに重点を置く)。

トレーニング中に使用されるデータ

このモデルは、 GitHubから 80 を超えるプログラミング言語でトレーニングされました。 オプトアウト要求でマークされたライセンス・コードまたはコードをトレーニング・データから除外するためにフィルターが適用されました。 ただし、モデルの出力には、帰因を必要とするトレーニング・データからのコードが含まれる場合があります。 モデルは命令調整されませんでした。 命令のみを使用して入力をサブミットし、例を使用しないと、モデル出力が不適切になる可能性があります。

モデル・アーキテクチャー

デコーダー

使用許諾条件

使用許諾条件

詳細はこちら

調査資料

モデル・カード

 

親トピック: 基盤モデル

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細