0 / 0
資料の 英語版 に戻る
watsonx.ai で使用可能なサポート対象の基盤モデル

watsonx.ai で使用可能なサポート対象の基盤モデル

オープン・ソース・モデルおよび IBM 基盤モデルの集合は、 IBM watsonx.aiにデプロイされます。 プロンプト・ラボで、またはプログラムで、デプロイされたファウンデーション・モデルにプロンプトを出すことができます。

以下のモデルが watsonx.ai: で使用可能です。

モデル・プロバイダー、命令チューニング、トークン制限、およびその他の要因が、選択するモデルにどのような影響を与えるかを理解するには、 モデルの選択を参照してください。

IBM 基盤モデル

以下の表に、 IBM が推論用に提供するサポート対象のファウンデーション・モデルをリストします。 すべての IBM モデルは命令チューニングされています。

一部の IBM ファウンデーション・モデルも Hugging Face から入手できます。 Hugging Face からアクセスできる IBM モデルのライセンス条項は、Hugging Face の Web サイトから入手できます。 watsonx.aiでアクセスする IBM IBM ファウンデーション・モデルの補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。

表 1. watsonx.ai の IBM 基盤モデル
モデル名 IBM indemnification (補償) 請求クラス 最大トークン
コンテキスト (入力 + 出力)
サポートされるタスク 詳細情報
granite-13b-chat-v2 はい クラス 1 8192 分類
抽出
生成
質問の回答
要約
モデル・カード
Web サイト
調査資料
granite-13b-instruct-v2 はい クラス 1 8192 分類
抽出
生成
質問の回答
要約
モデル・カード
Web サイト
リサーチ・ペーパー
注: このファウンデーション・モデルは調整できます。
granite-7b-lab はい クラス 1 8192 分類
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
リサーチ・ペーパー (LAB)
granite-8b-japanese はい クラス 1 8192 分類
抽出
生成
質問の回答
要約
モデル・カード
Web サイト
調査資料
granite-20b-multilingual はい クラス 1 8192 分類
抽出
生成
質問の回答
要約
モデル・カード
Web サイト
調査資料
granite-3b-code-instruct はい クラス 1 2048 コード
classification
extraction
generation
question answering
summarization
モデル・カード
Web サイト
調査資料
granite-8b-code-instruct はい クラス 1 4096 コード
classification
extraction
generation
question answering
summarization
モデル・カード
Web サイト
調査資料
granite-20b-code-instruct はい クラス 1 8192 コード
classification
extraction
generation
question answering
summarization
モデル・カード
リサーチ・ペーパー
granite-34b-code-instruct はい クラス 1 8192 コード
classification
extraction
generation
question answering
summarization
モデル・カード
リサーチ・ペーパー

 

テキストを埋め込むために IBM が提供するサポート対象の基盤モデルについて詳しくは、 サポートされる埋め込みモデルを参照してください。

サード・パーティー基盤モデル

以下の表に、サード・パーティーが Hugging Face を介して提供する、サポートされる基盤モデルをリストします。 すべてのサード・パーティー・モデルは命令調整されています。 IBM の補償は、サード・パーティー・モデルには適用されません。

表 2. watsonx.ai でサポートされるサード・パーティーのファ基盤モデル
モデル名 プロバイダー 請求クラス 最大トークン
コンテキスト (入力 + 出力)
サポートされるタスク 詳細情報
allam-1-13b-instruct 国家人工知能センターとサウジアラビア情報・人工知能機構 クラス 2 4096 分類
抽出
生成
質問への回答
検索拡張世代
要約
変換
モデル・カード (フランクフルト・データ・センター)
codellama-34b-instruct Code Llama クラス 2 16,384 コード モデル・カード
Meta AI Blog
elyza-japanese-llama-2-7b-instruct ELYZA (企業) クラス 2 4096 分類
抽出
生成
質問への回答
検索拡張世代
要約
変換
モデル・カード
note.com のブログ
flan-t5-xl-3b Google クラス 1 4096 分類
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
リサーチ・ペーパー
注: このファウンデーション・モデルは調整できます。
flan-t5-xxl-11b Google クラス 2 4096 分類
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
リサーチ・ペーパー
flan-ul2-20b Google クラス 3 4096 分類
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
UL2 リサーチ・ペーパー
Flan リサーチ・ペーパー
jais-13b-chat Inception、Mohamamed bin Zayed University of 人工知能 (MBZUAI)、および Erebras Systems クラス 2 2048 分類
抽出
生成
質問への回答
検索拡張世代
要約
変換
モデル・カード
リサーチ・ペーパー
llama-3-8b-instruct メタ クラス 1 8192 分類
コード
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
Meta AI Web サイト
llama-3-70b-instruct メタ クラス 2 8192 分類
コード
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
Meta AI Web サイト
llama-2-13b-chat メタ クラス 1 4096 分類
コード
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
リサーチ・ペーパー
注: このファウンデーション・モデルは調整できます。
llama-2-70b-chat メタ クラス 2 4096 分類
コード
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
リサーチ・ペーパー
llama2-13b-dpo-v7 メタ クラス 2 4096 分類
コード
抽出
生成
質問への回答
検索拡張世代
要約
モデル・カード
リサーチ・ペーパー (DPO)
merlinite-7b Mistral AI と IBM クラス 1 32,768 classification
extraction
generation
retrieval-augmented generation
summarization
モデル・カード
リサーチ・ペーパー (LAB)
mixtral-8x7b-instruct-v01 ミストラル AI クラス 1 32,768 分類
コード
抽出
生成
取得増補世代
要約
変換
モデル・カード
リサーチ・ペーパー
mixtral-8x7b-instruct-v01-q (非推奨) Mistral AI と IBM クラス 1 32,768 分類
コード
抽出
生成
取得増補世代
要約
変換
モデル・カード
リサーチ・ペーパー
mt0-xxl-13b BigScience クラス 2 4096 分類
生成
質問の回答
要約
モデル・カード
リサーチ・ペーパー

 

基本モデルの詳細

使用可能な基盤モデルは、自然言語とプログラミング言語の両方のユース・ケースをサポートします。 これらのモデルで実行できるタスクのタイプを確認するには、 サンプル・プロンプトを確認して試します。

allam-1-13b-instruct

allam-1-13b-instruct ファウンデーション・モデルは、National Center for 人工知能 (NAI) によって提供され、会話型タスクをサポートするために微調整された、サウジアラビア情報・人工知能 (AI) によってサポートされるアラビア語および英語用の 2 か国語ラージ言語モデルです。 ALLaM シリーズは、アラビア語テクノロジーを発展させるために設計された強力な言語モデルの集合です。 これらのモデルは、 Llama-2 の重みで初期化され、アラビア語と英語の両方の言語でトレーニングを受けます。

注: このファウンデーション・モデルは、フランクフルトのデータ・センターでのみ使用可能です。 プロンプト・ラボからこのモデルを推論する場合は、AI ガードレールを無効にします。
使用法
アラビア語の Q & A、要約、分類、生成、抽出、および翻訳をサポートします。
コスト
クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
試してみる
サンプルを試す:
size
130 億パラメーター
トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
サポートされる自然言語
アラビア語 (現代標準アラビア語) および英語
命令チューニング情報
allam-1-13b-instruct は、 Allam-13b-base モデルに基づいています。このモデルは、英語とアラビア語で合計 3 兆個のトークン (初期化から見たトークンを含む) について事前にトレーニングされた基盤モデルです。 アラビア語のデータ・セットには、クリーニングと重複排除の後に 5000 億個のトークンが含まれています。 追加データは、オープン・ソースのコレクションおよび Web クロールから収集されます。 allam-1-13b-instruct ファウンデーション・モデルは、キュレーションされた 400 万のアラビア語と 600 万の英語のプロンプトと応答のペアで微調整されています。
モデル・アーキテクチャー
デコーダーのみ
使用許諾条件
Llama 2 コミュニティー・ライセンス および ALLaM ライセンス
詳細情報
モデル・カード (フランクフルト・データ・センター)

codellama-34b-instruct

Meta からの Llama 2 に基づくプログラマチック・コード生成モデル。 Code Llama は、コードの生成とディスカッションのために微調整されています。

プロンプト・ラボからこのモデルを推論する場合は、AI ガードレールを無効にします。

使用法
Code Llama を使用して、自然言語入力、Explain コード、または完全かつデバッグ・コードに基づいてコードを生成するプロンプトを作成します。
コスト
クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
試してみる
サンプルを試す:
size
340 億パラメーター
トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 16,384
注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 8192 に制限されています。
サポートされる自然言語
英語
サポートされるプログラミング言語
codellama-34b-instruct-hf ファウンデーション・モデルは、 Python、C++、Java、PHP、Typescript (Javascript)、C#、Bash などの多くのプログラミング言語をサポートしています。
命令チューニング情報
インストラクションの微調整版には、自然言語の命令入力と予想される出力が提供され、自然言語で役に立つ安全な回答を生成するためにモデルがガイドされました。
モデル・アーキテクチャー
デコーダー
使用許諾条件
使用許諾条件
詳細情報
以下のリソースをお読みください。

elyza-japanese-llama-2-7b-instruct

elyza-japanese-llama-2-7b-instruct モデルは、ELYZA, Inc on Hugging Face によって提供されます。 elyza-japanese-llama-2-7b-instruct ファ基盤モデルは、日本語テキストを理解して生成するためにトレーニングされた、Meta の Llama 2 モデルの 1 つのバージョンです。 このモデルは、ユーザーの指示に従うさまざまなタスクを求解するため、およびダイアログに参加するために微調整されています。

注: このファウンデーション・モデルは、東京データ・センターでのみ使用可能です。 プロンプト・ラボからこのモデルを推論する場合は、AI ガードレールを無効にします。
使用法
zero- または few-shot プロンプトでの一般的な使用。 日本語での分類と抽出、および英語と日本語の翻訳に適しています。 日本語でプロンプトが出されたときに最適に実行します。
コスト
クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
試してみる
サンプルを試す:
サンプル・プロンプト: 分類
サンプル・プロンプト: 翻訳
size
70 億のパラメーター
トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
サポートされる自然言語
日本語、英語
命令チューニング情報
日本語のトレーニングでは、Wikipedia や Open Super-large Crawled ALMAnaCH coRpus (Common Crawl コーパスで言語を分類してフィルタリングすることによって生成される多言語コーパス) など、多くのソースからの日本語テキストが使用されました。 モデルは、ELYZA によって作成されたデータ・セットに基づいて微調整されました。 「ELYZA タスク 100 (ELYZA Tasks 100)」 データ・セットには、人間によって手動で作成され、評価された、さまざまな複雑なタスクが 100 個含まれています。 ELYZA タスク 100 データ・セットは、 HuggingFaceから公開されています。
モデル・アーキテクチャー
デコーダー
使用許諾条件
使用許諾条件
詳細情報
以下のリソースをお読みください。

flan-t5-xl-3b

flan-t5-xl-3b モデルは Hugging Face の Google で提供されています。 このモデルは、事前にトレーニングされたテキストからテキストへの転送変換プログラム (T5) モデルに基づいており、 zero- および few-shot のパフォーマンスを向上させるために命令の微調整方法を使用します。 また、このモデルは、推論タスクを実行する能力を向上させるために、思考チェーン・データを使用して微調整されます。

注: このファ基盤モデルは、Tuning Studio を使用して調整できます。
使用法

zero- または few-shot プロンプトでの一般的な使用。

コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

30 億個のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

多言語

命令チューニング情報

このモデルは、従来の自然言語処理タスクに加えて、思考チェーン・データからの複数ステップの推論を伴うタスクについて微調整されました。 使用されるトレーニング・データ・セットに関する詳細が公開されます。

モデル・アーキテクチャー

エンコーダー・デコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細情報

以下のリソースをお読みください。

flan-t5-xxl-11b

flan-t5-xxl-11b モデルは Hugging Face の Google で提供されています。 このモデルは、事前にトレーニングされたテキストからテキストへの転送変換プログラム (T5) モデルに基づいており、 zero- および few-shot のパフォーマンスを向上させるために命令の微調整方法を使用します。 また、このモデルは、推論タスクを実行する能力を向上させるために、思考チェーン・データを使用して微調整されます。

使用法

zero- または few-shot プロンプトでの一般的な使用。

コスト

クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプルを試す:

size

110 億パラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

英語、ドイツ語、フランス語

命令チューニング情報

このモデルは、従来の自然言語処理タスクに加えて、思考チェーン・データからの複数ステップの推論を伴うタスクについて微調整されました。 使用されるトレーニング・データ・セットに関する詳細が公開されます。

モデル・アーキテクチャー

エンコーダー・デコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細情報

以下のリソースをお読みください。

flan-ul2-20b

flan-ul2-20b モデルは Hugging Face の Google で提供されています。 このモデルは、統一言語学習パラダイム (UL2) を使用してトレーニングされました。 このモデルは、言語生成、言語理解、テキスト分類、質問への回答、一般的なセンス推論、長いテキスト推論、構造化知識の接地、および情報検索、コンテキスト内学習、 zero-shot プロンプト、および 1 回限りのプロンプト用に最適化されています。

使用法

zero- または few-shot プロンプトでの一般的な使用。

コスト

クラス 3. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプルを試す:

size

200 億個のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

英語

命令チューニング情報

flan-ul2-20b モデルは、一般的なクロールの Web クロール・コーパスの、クリーンアップされた巨大なバージョンで事前トレーニングされています。 このモデルは、さまざまな自然言語処理タスク用に最適化するために、複数の事前トレーニング目標を使用して微調整されます。 使用されるトレーニング・データ・セットに関する詳細が公開されます。

モデル・アーキテクチャー

エンコーダー・デコーダー

使用許諾条件

Apache 2.0 ライセンス

詳細情報

以下のリソースをお読みください。

granite-13b-chat-v2

granite-13b-chat-v2 モデルは IBMによって提供されています。 このモデルは、ダイアログのユース・ケースに合わせて最適化されており、Virtual Agent やチャット・アプリケーションで適切に機能します。

使用法: チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。 簡潔応答を生成するための停止シーケンスとして使用できるキーワードを出力に含めます。

注: このファウンデーション・モデルは、 InstructLabのオープン・ソース・コミュニティーが提供するスキルをサポートします。

コスト: クラス 1。 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

130 億パラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされる自然言語

英語

命令チューニング情報

Granite ファミリーのモデルは、インターネット、アカデミック、コード、法務、財務の 5 つの分野の企業関連データ・セットについてトレーニングされています。 最初にモデルをトレーニングするために使用されるデータは、 IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、ヘイト、迷惑メール、または冒涜のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有しています。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。

詳細情報

以下のリソースをお読みください。

granite-13b-instruct-v2

granite-13b-instruct-v2 モデルは、 IBMによって提供されています。 このモデルは、高品質の財務データを使用してトレーニングされており、財務タスクに関する優れたパフォーマンス・モデルです。 評価される財務タスクには、株式および所得の通話記録のセンチメント・スコアの提供、ニュースのヘッドラインの分類、信用リスク評価の抽出、金融の長形式テキストの要約、金融または保険関連の質問への回答が含まれます。

注: このファ基盤モデルは、Tuning Studio を使用して調整できます。
使用法

抽出、要約、および分類の各タスクをサポートします。 財務関連タスクの有用な出力を生成します。 モデル固有のプロンプト形式を使用します。 構造化出力の生成に使用できる特殊文字を受け入れます。

コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプルを試す:

size

130 億パラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされる自然言語

英語

命令チューニング情報

Granite ファミリーのモデルは、インターネット、アカデミック、コード、法務、財務の 5 つの分野の企業関連データ・セットについてトレーニングされています。 最初にモデルをトレーニングするために使用されるデータは、 IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、ヘイト、迷惑メール、または冒涜のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有しています。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。

詳細情報

以下のリソースをお読みください。

granite-7b-lab

granite-7b-lab ファウンデーション・モデルは、 IBMによって提供されています。 granite-7b-lab ファウンデーション・モデルは、 IBM Research の新しいアライメント・チューニング方式を使用しています。 chatBots(LAB) の大規模アライメントは、スキルの合成データを生成し、そのデータを使用してファウンデーション・モデルを調整することにより、既存のファウンデーション・モデルに新しいスキルを追加する方法です。

使用法
抽出、要約、分類などの一般的なタスクをサポートします。
注: このファウンデーション・モデルは、 InstructLabのオープン・ソース・コミュニティーが提供するスキルをサポートします。
コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプル: パッセージのタイトルの生成

size

70 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 4096 に制限されています。

サポートされる自然言語

英語

命令チューニング情報

granite-7b-lab ファウンデーション・モデルは、チャットボット (LAB) の方法論の大規模な調整を使用して反復的にトレーニングされます。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

watsonx.ai で提供されている granite-7b-lab ファウンデーション・モデルを使用すると、 IBM の補償に関連する契約上の保護が適用されます。 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。

詳細情報

以下のリソースをお読みください。

granite-8b-japanese

granite-8b-japanese モデルは、 IBMによって提供されています。 granite-8b-japanese 基盤モデルは、 IBM Granite Instruct 基盤モデルに基づいており、日本語テキストを理解して生成するようにトレーニングされています。

注: このファウンデーション・モデルは、東京データ・センターでのみ使用可能です。 プロンプト・ラボからこのモデルを推論する場合は、AI ガードレールを無効にします。
使用法

分類、抽出、質問への回答、日本語と英語の間の言語翻訳など、日本語の汎用タスクに役立ちます。

コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプルを試す:

size

80 億パラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされる自然言語

英語、日本語

命令チューニング情報

Granite ファミリーのモデルは、インターネット、アカデミック、コード、法務、財務の 5 つの分野の企業関連データ・セットについてトレーニングされています。 granite-8b-japanese モデルは、1 兆個の英語トークンと 0.5 兆個の日本語テキスト・トークンを使用して事前にトレーニングされています。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。

詳細情報

以下のリソースをお読みください。

granite-20b-multilingual

IBM Granite ファミリーのファウンデーション・モデル。 granite-20b-multilingual ファウンデーション・モデルは、 IBM Granite ファウンデーション・モデルに基づいており、英語、ドイツ語、スペイン語、フランス語、およびポルトガル語のテキストを理解して生成するようにトレーニングされています。

使用法
英語、ドイツ語、スペイン語、フランス語、およびポルトガル語のクローズド・ドメインの質問の回答、要約、世代、抽出、および分類。
注: このファウンデーション・モデルは、 InstructLabのオープン・ソース・コミュニティーが提供するスキルをサポートします。
コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト: フランス語から英語へのテキストの翻訳

size

130 億パラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

サポートされる自然言語

英語、ドイツ語、スペイン語、フランス語、およびポルトガル語

命令チューニング情報

Granite ファミリーのモデルは、インターネット、アカデミック、コード、法務、財務の 5 つの分野の企業関連データ・セットについてトレーニングされています。 最初にモデルをトレーニングするために使用されるデータは、 IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、ヘイト、迷惑メール、または冒涜のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有しています。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。

詳細情報

以下のリソースをお読みください。

Granite コード・モデル

IBM Granite ファミリーのファウンデーション・モデル。 Granite コード・ファウンデーション・モデルは、 Git コミットと人間の命令およびオープン・ソースの合成生成コード命令データ・セットの組み合わせを使用して詳細化された命令フォロー・モデルです。

注: これらのファウンデーション・モデルは、ダラス・データ・センターでのみ使用可能です。 プロンプト・ラボからこれらのモデルを推論する場合は、AI ガードレールを無効にします。
使用法

Granite コード・ファウンデーション・モデルは、コーディング関連の命令に対応するように設計されており、コーディング支援の構築に使用できます。

コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプルを試す:

使用可能なサイズ

このモデルは、以下のサイズで使用できます。

  • 30 億個のパラメーター
  • 80 億パラメーター
  • 200 億個のパラメーター
  • 340 億パラメーター
トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力)

  • granite-3b-code-instruct : 2048
  • granite-8b-code-instruct : 4096
  • granite-20b-code-instruct : 8192
  • granite-34b-code-instruct : 8192
サポートされる自然言語

英語

サポートされるプログラミング言語

Granite コード・ファウンデーション・モデルは、 Python、Javascript、Java、C++、Go、および Rust を含む 116 個のプログラミング言語をサポートします。 完全なリストについては、 IBM ファウンデーション・モデルを参照してください。

命令チューニング情報

これらのモデルは、論理的推論や問題解決スキルなどの命令に従う機能を強化するために、許可ライセンス交付を受けた命令データの組み合わせに基づいて Granite コード・ベース・モデルから微調整されました。

モデル・アーキテクチャー

デコーダー

使用許諾条件

ご利用条件

watsonx.aiで Granite コード基盤モデルを使用すると、 IBM 補償に関連する契約上の保護が適用されます。 IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。

詳細情報

以下のリソースをお読みください。

jais-13b-chat

jais-13b-chat ファウンデーション・モデルは、アラビア語と英語用の 2 か国語ラージ言語モデルであり、会話型タスクをサポートするように微調整されています。

注: このファウンデーション・モデルは、フランクフルトのデータ・センターでのみ使用可能です。 プロンプト・ラボからこのモデルを推論する場合は、AI ガードレールを無効にします。
使用法
アラビア語の Q & A、要約、分類、生成、抽出、および翻訳をサポートします。
コスト
クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
試してみる
サンプル・プロンプト: アラビア語チャット
size
130 億パラメーター
トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 2048
サポートされる自然言語
アラビア語 (現代標準アラビア語) および英語
命令チューニング情報
Jais-13b-chat は、1260 億のアラビア語トークンと 2790 億の英語トークンでトレーニングされる基盤モデルである Jais-13b モデルに基づいています。 Jais-13b-chat は、400 万件のアラビア語と 600 万件の英語のプロンプトと応答のペアから成るキュレーション・セットを使用して微調整されます。
モデル・アーキテクチャー
デコーダー
使用許諾条件
Apache 2.0
詳細情報
以下のリソースをお読みください。

Llama 3 チャット

Meta Llama 3 つのファウンデーション・モデルは、 Meta Llama 3 で作成され、Meta on Hugging Face によって提供される、アクセス可能なオープン・ラージ言語モデルです。 Llama 3 ファウンデーション・モデルは、さまざまなユース・ケースをサポートできる、命令の微調整された言語モデルです。

使用法: チャットボットのようなダイアログ出力を生成します。

コスト
  • 8b:クラス1
  • 70b:クラス2

料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト: Llama 3とチャットする

使用可能なサイズ
  • 80 億パラメーター
  • 700億のパラメータ
トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 8192

注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 4096 に制限されています。

サポートされる自然言語

英語

命令チューニング情報

Llama 3 は、トレーニング後の手順の改善を特長としています。これにより、ファウンデーション・モデルの出力における偽りの拒否率を削減し、調整を改善し、多様性を向上させることができます。 その結果、推論、コード生成、命令に従う機能が向上します。 Llama 3 には、より多くのトレーニング・トークン (15T) があり、これにより言語理解が向上します。

モデル・アーキテクチャー

デコーダーのみ

使用許諾条件

META LLAMA 3 コミュニティライセンス

詳細情報

以下のリソースをお読みください。

Llama 2 チャット

Llama 2 Chat モデルは、Hugging Face 上の Meta によって提供されます。 微調整されたモデルは、チャットの生成に役立ちます。 このモデルは、公開されているオンライン・データを使用して事前にトレーニングされ、人間のフィードバックからの強化学習を使用して微調整されます。

モデルのパラメーター・バージョンとして、130 億個のパラメーターを使用するか、700 億個のパラメーターを使用するかを選択できます。

注: このファ基盤モデルの 130 億パラメーター・バージョンは、Tuning Studio を使用して調整できます。
使用法

チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。

コスト
  • 13b:クラス1
  • 70b:クラス2

料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプルを試す:

使用可能なサイズ
  • 130 億パラメーター
  • 700億のパラメータ
トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

ライト・プランの出力は、以下のように制限されます。

  • 70b バージョン: 900
  • 13b バージョン: 2048
サポートされる自然言語

英語

命令チューニング情報

Llama 2 は、公開されているソースからの 2 兆トークンのデータに基づいて事前トレーニングされています。 微調整データには、公開されている命令データ・セットと、人間がアノテーションを付けた 100 万を超える新しい例が含まれています。

モデル・アーキテクチャー

デコーダーのみ

使用許諾条件

使用許諾条件

詳細情報

以下のリソースをお読みください。

llama2-13b-dpo-v7

llama2-13b-dpo-v7 ファウンデーション・モデルは、Minds & Company によって提供されます。 llama2-13b-dpo-v7 ファウンデーション・モデルは、Meta の llama2-13b ファウンデーション・モデルの 1 つのバージョンであり、韓国語を処理するための直接設定最適化方式を使用して命令チューニングおよび微調整が行われます。

注: このファウンデーション・モデルは、東京データ・センターでのみ使用可能です。 プロンプト・ラボからこのモデルを推論する場合は、AI ガードレールを無効にします。
使用法
韓国語の分類、抽出、要約、コードの作成と変換、質問への回答、生成、および retreival-augmented generation などの多くのタスクに適しています。
コスト
クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
試してみる
サンプルを試す:
size
13.2 個のパラメーター
トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
サポートされる自然言語
英語、韓国語
命令チューニング情報
直接優先最適化 (DPO) は、人間のフィードバックからの強化学習に代わるものです。 人間のフィードバックからの強化学習では、言語モデルから回答をサンプリングする必要があり、報酬モデルのトレーニングの中間ステップが必要です。 直接嗜好最適化では、モデルが嗜好データに基づいて 2 つの回答のうち最良のものを選択する、強化学習の 2 値方式が使用されます。
モデル・アーキテクチャー
デコーダーのみ
使用許諾条件
使用許諾条件
詳細情報
以下のリソースをお読みください。

merlinite-7b

merlinite-7b ファウンデーション・モデルは Mistral AI によって提供され、 IBMによって調整されます。 merlinite-7b ファウンデーション・モデルは、 IBM Research の新しいアライメント・チューニング・メソッドを使用して調整された Mistral-7B-v0.1 モデルの派生モデルです。 chatBots(LAB) の大規模アライメントは、スキルの合成データを生成し、そのデータを使用してファウンデーション・モデルを調整することにより、既存のファウンデーション・モデルに新しいスキルを追加する方法です。

使用法
抽出、要約、分類などの一般的なタスクをサポートします。
注: このファウンデーション・モデルは、 InstructLabのオープン・ソース・コミュニティーが提供するスキルをサポートします。
コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプル: パターンでのシーケンスの完了

size

70 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 32,768

注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 8192 に制限されています。

サポートされる自然言語

英語

命令チューニング情報

merlinite-7b ファウンデーション・モデルは、チャットボット (LAB) 方法論の大規模な調整を使用して反復的にトレーニングされます。

モデル・アーキテクチャー

デコーダー

使用許諾条件

Apache2.0ライセンス

詳細情報

以下のリソースをお読みください。

mixtral-8x7b-instruct-v01

mixtral-8x7b-instruct-v01 ファウンデーション・モデルは、Mistral AI によって提供されます。 mixtral-8x7b-instruct-v01 ファウンデーション・モデルは、モデル・パラメーターをグループ化し、トークンを処理するグループのサブセット ( エキスパートと呼ばれる) をトークンごとに選択する、事前トレーニングされた生成スパース専門家混合ネットワークです。 その結果、各トークンは 470 億個のパラメーターにアクセスできますが、推論には 130 億個のアクティブ・パラメーターしか使用できないため、コストと待ち時間が削減されます。

使用法

分類、要約、生成、コードの作成と変換、および言語翻訳など、多くのタスクに適しています。 モデルのコンテキスト・ウィンドウが異常に大きいため、最大トークン数パラメーターを使用して、モデルにプロンプトを出すときのトークン制限を指定します。

コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

46.7 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 32,768

注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 16,384 に制限されています。

サポートされる自然言語

英語、フランス語、ドイツ語、イタリア語、スペイン語

命令チューニング情報

ミクトラル・ファウンデーション・モデルは、インターネット・データに基づいて事前にトレーニングされています。 Mixtral 8x7B Instruction ファ基盤モデルは、指示に従うように微調整されています。

モデル・アーキテクチャー

デコーダーのみ

使用許諾条件

Apache2.0ライセンス

詳細情報

以下のリソースをお読みください。

mixtral-8x7b-instruct-v01-q (非推奨)

警告アイコンこのモデルは、5.0.0リリース。 詳しくは、 ファ基盤モデルのライフサイクルを参照してください。

mixtral-8x7b-instruct-v01-q モデルは IBMによって提供されています。 mixtral-8x7b-instruct-v01-q ファ基盤モデルは、Mistral AI の Mixtral 8x7B インストラクション・ファ基盤モデルの量子化されたバージョンです。

基礎となる Mixtral 8x7B ファ基盤モデルは、モデル・パラメーターをグループ化し、トークンを処理するグループのサブセット ( エキスパートと呼ばれる) をトークンごとに選択する、まばらな専門家の混合ネットワークです。 その結果、各トークンは 470 億個のパラメーターにアクセスできますが、推論には 130 億個のアクティブ・パラメーターしか使用できないため、コストと待ち時間が削減されます。

使用法

分類、要約、生成、コードの作成と変換、および言語翻訳など、多くのタスクに適しています。 モデルのコンテキスト・ウィンドウが異常に大きいため、最大トークン数パラメーターを使用して、モデルにプロンプトを出すときのトークン制限を指定します。

コスト

クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

サンプル・プロンプト

size

8 x 70 億のパラメーター

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 32,768

注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 4096 に制限されています。

サポートされる自然言語

英語、フランス語、ドイツ語、イタリア語、スペイン語

命令チューニング情報

ミクトラル・ファウンデーション・モデルは、インターネット・データに基づいて事前にトレーニングされています。 Mixtral 8x7B Instruction ファ基盤モデルは、指示に従うように微調整されています。

IBMチューニング済みモデルは、 AutoGPTQ (Generative Pre-Trained Transformers のトレーニング後の量子化) メソッドを使用して、データ転送中にモデルの重み値を 16 ビット浮動小数点データ型から 4 ビット整数データ型に圧縮します。 重みは計算時に圧縮解除されます。 データを転送するために重みを圧縮すると、モデルの GPU メモリーおよび GPU 計算エンジンのサイズ要件が削減されます。

モデル・アーキテクチャー

デコーダーのみ

使用許諾条件

Apache2.0ライセンス

詳細情報

以下のリソースをお読みください。

mt0-xxl-13b

mt0-xxl-13b モデルは、ハギング・フェイスの BigScience によって提供されます。 このモデルは、英語、英語以外の言語、およびマルチリンガル・プロンプトを使用して、言語の生成と翻訳のタスクをサポートするように最適化されています。

使用法: zero- または few-shot プロンプトでの一般的な使用。 翻訳タスクの場合は、翻訳するテキストの終わりを示すピリオドを含めてください。そうしないと、モデルが文を翻訳するのではなく、文を継続する可能性があります。

コスト

クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。

試してみる

以下のサンプルを試してください。

size

130 億パラメーター

サポートされる自然言語

多言語

トークンの制限

コンテキスト・ウィンドウの長さ (入力 + 出力): 4096

: ライト・プランの出力は 700 に制限されています

サポートされる自然言語

このモデルは、108 言語のマルチリンガル・データで事前トレーニングされ、46 言語のマルチリンガル・データで微調整されて、マルチリンガル・タスクを実行します。

命令チューニング情報

BigScience は、そのコードおよびデータ・セットに関する詳細を公開します。

モデル・アーキテクチャー

エンコーダー・デコーダー

使用許諾条件

Apache2.0ライセンス

詳細情報

以下のリソースをお読みください。

非推奨の基盤モデルは警告アイコンで強調表示されます警告アイコン。 ファウンデーション・モデルの営業活動終了日など、非推奨について詳しくは、 ファウンデーション・モデルのライフサイクルを参照してください。

詳細情報

親トピック: 生成 AI ソリューションの開発

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細