watsonx.ai で使用可能なサポート対象の基盤モデル
オープン・ソース・モデルおよび IBM 基盤モデルの集合は、 IBM watsonx.aiにデプロイされます。 プロンプト・ラボで、またはプログラムで、デプロイされたファウンデーション・モデルにプロンプトを出すことができます。
以下のモデルが watsonx.ai: で使用可能です。
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-7b-lab
- granite-8b-japanese
- granite-20b-multilingual
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
- allam-1-13b-instruct
- codellama-34b-instruct
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- jais-13b-chat
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-2-13b-chat
- llama-2-70b-chat
- llama2-13b-dpo-v7
- merlinite-7b
- mixtral-8x7b-instruct-v01
- mixtral-8x7b-instruct-v01-q
- mt0-xxl-13b
モデル・プロバイダー、命令チューニング、トークン制限、およびその他の要因が、選択するモデルにどのような影響を与えるかを理解するには、 モデルの選択を参照してください。
IBM 基盤モデル
以下の表に、 IBM が推論用に提供するサポート対象のファウンデーション・モデルをリストします。 すべての IBM モデルは命令チューニングされています。
一部の IBM ファウンデーション・モデルも Hugging Face から入手できます。 Hugging Face からアクセスできる IBM モデルのライセンス条項は、Hugging Face の Web サイトから入手できます。 watsonx.aiでアクセスする IBM IBM ファウンデーション・モデルの補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。
モデル名 | IBM indemnification (補償) | 請求クラス | 最大トークン コンテキスト (入力 + 出力) |
サポートされるタスク | 詳細情報 |
---|---|---|---|---|---|
granite-13b-chat-v2 | はい | クラス 1 | 8192 | 分類 抽出 生成 質問の回答 要約 |
モデル・カード Web サイト 調査資料 |
granite-13b-instruct-v2 | はい | クラス 1 | 8192 | 分類 抽出 生成 質問の回答 要約 |
モデル・カード Web サイト リサーチ・ペーパー 注: このファウンデーション・モデルは調整できます。
|
granite-7b-lab | はい | クラス 1 | 8192 | 分類 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード リサーチ・ペーパー (LAB) |
granite-8b-japanese | はい | クラス 1 | 8192 | 分類 抽出 生成 質問の回答 要約 |
モデル・カード Web サイト 調査資料 |
granite-20b-multilingual | はい | クラス 1 | 8192 | 分類 抽出 生成 質問の回答 要約 |
モデル・カード Web サイト 調査資料 |
granite-3b-code-instruct | はい | クラス 1 | 2048 | コード classification extraction generation question answering summarization |
モデル・カード Web サイト 調査資料 |
granite-8b-code-instruct | はい | クラス 1 | 4096 | コード classification extraction generation question answering summarization |
モデル・カード Web サイト 調査資料 |
granite-20b-code-instruct | はい | クラス 1 | 8192 | コード classification extraction generation question answering summarization |
モデル・カード リサーチ・ペーパー |
granite-34b-code-instruct | はい | クラス 1 | 8192 | コード classification extraction generation question answering summarization |
モデル・カード リサーチ・ペーパー |
テキストを埋め込むために IBM が提供するサポート対象の基盤モデルについて詳しくは、 サポートされる埋め込みモデルを参照してください。
サード・パーティー基盤モデル
以下の表に、サード・パーティーが Hugging Face を介して提供する、サポートされる基盤モデルをリストします。 すべてのサード・パーティー・モデルは命令調整されています。 IBM の補償は、サード・パーティー・モデルには適用されません。
モデル名 | プロバイダー | 請求クラス | 最大トークン コンテキスト (入力 + 出力) |
サポートされるタスク | 詳細情報 |
---|---|---|---|---|---|
allam-1-13b-instruct | 国家人工知能センターとサウジアラビア情報・人工知能機構 | クラス 2 | 4096 | 分類 抽出 生成 質問への回答 検索拡張世代 要約 変換 |
モデル・カード (フランクフルト・データ・センター) |
codellama-34b-instruct | Code Llama | クラス 2 | 16,384 | コード | モデル・カード Meta AI Blog |
elyza-japanese-llama-2-7b-instruct | ELYZA (企業) | クラス 2 | 4096 | 分類 抽出 生成 質問への回答 検索拡張世代 要約 変換 |
• モデル・カード • note.com のブログ |
flan-t5-xl-3b | クラス 1 | 4096 | 分類 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード リサーチ・ペーパー 注: このファウンデーション・モデルは調整できます。
|
|
flan-t5-xxl-11b | クラス 2 | 4096 | 分類 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード リサーチ・ペーパー |
|
flan-ul2-20b | クラス 3 | 4096 | 分類 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード UL2 リサーチ・ペーパー Flan リサーチ・ペーパー |
|
jais-13b-chat | Inception、Mohamamed bin Zayed University of 人工知能 (MBZUAI)、および Erebras Systems | クラス 2 | 2048 | 分類 抽出 生成 質問への回答 検索拡張世代 要約 変換 |
モデル・カード リサーチ・ペーパー |
llama-3-8b-instruct | メタ | クラス 1 | 8192 | 分類 コード 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード Meta AI Web サイト |
llama-3-70b-instruct | メタ | クラス 2 | 8192 | 分類 コード 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード Meta AI Web サイト |
llama-2-13b-chat | メタ | クラス 1 | 4096 | 分類 コード 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード リサーチ・ペーパー 注: このファウンデーション・モデルは調整できます。
|
llama-2-70b-chat | メタ | クラス 2 | 4096 | 分類 コード 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード リサーチ・ペーパー |
llama2-13b-dpo-v7 | メタ | クラス 2 | 4096 | 分類 コード 抽出 生成 質問への回答 検索拡張世代 要約 |
モデル・カード リサーチ・ペーパー (DPO) |
merlinite-7b | Mistral AI と IBM | クラス 1 | 32,768 | classification extraction generation retrieval-augmented generation summarization |
モデル・カード リサーチ・ペーパー (LAB) |
mixtral-8x7b-instruct-v01 | ミストラル AI | クラス 1 | 32,768 | 分類 コード 抽出 生成 取得増補世代 要約 変換 |
モデル・カード リサーチ・ペーパー |
mixtral-8x7b-instruct-v01-q (非推奨) | Mistral AI と IBM | クラス 1 | 32,768 | 分類 コード 抽出 生成 取得増補世代 要約 変換 |
モデル・カード リサーチ・ペーパー |
mt0-xxl-13b | BigScience | クラス 2 | 4096 | 分類 生成 質問の回答 要約 |
モデル・カード リサーチ・ペーパー |
- 各リージョンのデータ・センターで提供されるモデルのリストについては、 基盤モデルのリージョンの可用性を参照してください。
- 料金設定およびレート制限については、 Watson Machine Learning プランを参照してください。
基本モデルの詳細
使用可能な基盤モデルは、自然言語とプログラミング言語の両方のユース・ケースをサポートします。 これらのモデルで実行できるタスクのタイプを確認するには、 サンプル・プロンプトを確認して試します。
allam-1-13b-instruct
allam-1-13b-instruct ファウンデーション・モデルは、National Center for 人工知能 (NAI) によって提供され、会話型タスクをサポートするために微調整された、サウジアラビア情報・人工知能 (AI) によってサポートされるアラビア語および英語用の 2 か国語ラージ言語モデルです。 ALLaM シリーズは、アラビア語テクノロジーを発展させるために設計された強力な言語モデルの集合です。 これらのモデルは、 Llama-2 の重みで初期化され、アラビア語と英語の両方の言語でトレーニングを受けます。
- 使用法
- アラビア語の Q & A、要約、分類、生成、抽出、および翻訳をサポートします。
- コスト
- クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- サンプルを試す:
- size
- 130 億パラメーター
- トークンの制限
- コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
- サポートされる自然言語
- アラビア語 (現代標準アラビア語) および英語
- 命令チューニング情報
- allam-1-13b-instruct は、 Allam-13b-base モデルに基づいています。このモデルは、英語とアラビア語で合計 3 兆個のトークン (初期化から見たトークンを含む) について事前にトレーニングされた基盤モデルです。 アラビア語のデータ・セットには、クリーニングと重複排除の後に 5000 億個のトークンが含まれています。 追加データは、オープン・ソースのコレクションおよび Web クロールから収集されます。 allam-1-13b-instruct ファウンデーション・モデルは、キュレーションされた 400 万のアラビア語と 600 万の英語のプロンプトと応答のペアで微調整されています。
- モデル・アーキテクチャー
- デコーダーのみ
- 使用許諾条件
- Llama 2 コミュニティー・ライセンス および ALLaM ライセンス
- 詳細情報
- モデル・カード (フランクフルト・データ・センター)
codellama-34b-instruct
Meta からの Llama 2 に基づくプログラマチック・コード生成モデル。 Code Llama は、コードの生成とディスカッションのために微調整されています。
プロンプト・ラボからこのモデルを推論する場合は、AI ガードレールを無効にします。
- 使用法
- Code Llama を使用して、自然言語入力、Explain コード、または完全かつデバッグ・コードに基づいてコードを生成するプロンプトを作成します。
- コスト
- クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- サンプルを試す:
- size
- 340 億パラメーター
- トークンの制限
- コンテキスト・ウィンドウの長さ (入力 + 出力): 16,384
- 注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 8192 に制限されています。
- サポートされる自然言語
- 英語
- サポートされるプログラミング言語
- codellama-34b-instruct-hf ファウンデーション・モデルは、 Python、C++、Java、PHP、Typescript (Javascript)、C#、Bash などの多くのプログラミング言語をサポートしています。
- 命令チューニング情報
- インストラクションの微調整版には、自然言語の命令入力と予想される出力が提供され、自然言語で役に立つ安全な回答を生成するためにモデルがガイドされました。
- モデル・アーキテクチャー
- デコーダー
- 使用許諾条件
- 使用許諾条件
- 詳細情報
- 以下のリソースをお読みください。
elyza-japanese-llama-2-7b-instruct
elyza-japanese-llama-2-7b-instruct モデルは、ELYZA, Inc on Hugging Face によって提供されます。 elyza-japanese-llama-2-7b-instruct ファ基盤モデルは、日本語テキストを理解して生成するためにトレーニングされた、Meta の Llama 2 モデルの 1 つのバージョンです。 このモデルは、ユーザーの指示に従うさまざまなタスクを求解するため、およびダイアログに参加するために微調整されています。
- 使用法
- zero- または few-shot プロンプトでの一般的な使用。 日本語での分類と抽出、および英語と日本語の翻訳に適しています。 日本語でプロンプトが出されたときに最適に実行します。
- コスト
- クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- サンプルを試す:
- サンプル・プロンプト: 分類
- サンプル・プロンプト: 翻訳
- size
- 70 億のパラメーター
- トークンの制限
- コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
- サポートされる自然言語
- 日本語、英語
- 命令チューニング情報
- 日本語のトレーニングでは、Wikipedia や Open Super-large Crawled ALMAnaCH coRpus (Common Crawl コーパスで言語を分類してフィルタリングすることによって生成される多言語コーパス) など、多くのソースからの日本語テキストが使用されました。 モデルは、ELYZA によって作成されたデータ・セットに基づいて微調整されました。 「ELYZA タスク 100 (ELYZA Tasks 100)」 データ・セットには、人間によって手動で作成され、評価された、さまざまな複雑なタスクが 100 個含まれています。 ELYZA タスク 100 データ・セットは、 HuggingFaceから公開されています。
- モデル・アーキテクチャー
- デコーダー
- 使用許諾条件
- 使用許諾条件
- 詳細情報
- 以下のリソースをお読みください。
flan-t5-xl-3b
flan-t5-xl-3b モデルは Hugging Face の Google で提供されています。 このモデルは、事前にトレーニングされたテキストからテキストへの転送変換プログラム (T5) モデルに基づいており、 zero- および few-shot のパフォーマンスを向上させるために命令の微調整方法を使用します。 また、このモデルは、推論タスクを実行する能力を向上させるために、思考チェーン・データを使用して微調整されます。
- 使用法
zero- または few-shot プロンプトでの一般的な使用。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
30 億個のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
多言語
- 命令チューニング情報
このモデルは、従来の自然言語処理タスクに加えて、思考チェーン・データからの複数ステップの推論を伴うタスクについて微調整されました。 使用されるトレーニング・データ・セットに関する詳細が公開されます。
- モデル・アーキテクチャー
エンコーダー・デコーダー
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
flan-t5-xxl-11b
flan-t5-xxl-11b モデルは Hugging Face の Google で提供されています。 このモデルは、事前にトレーニングされたテキストからテキストへの転送変換プログラム (T5) モデルに基づいており、 zero- および few-shot のパフォーマンスを向上させるために命令の微調整方法を使用します。 また、このモデルは、推論タスクを実行する能力を向上させるために、思考チェーン・データを使用して微調整されます。
- 使用法
zero- または few-shot プロンプトでの一般的な使用。
- コスト
クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプルを試す:
- size
110 億パラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
英語、ドイツ語、フランス語
- 命令チューニング情報
このモデルは、従来の自然言語処理タスクに加えて、思考チェーン・データからの複数ステップの推論を伴うタスクについて微調整されました。 使用されるトレーニング・データ・セットに関する詳細が公開されます。
- モデル・アーキテクチャー
エンコーダー・デコーダー
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
flan-ul2-20b
flan-ul2-20b モデルは Hugging Face の Google で提供されています。 このモデルは、統一言語学習パラダイム (UL2) を使用してトレーニングされました。 このモデルは、言語生成、言語理解、テキスト分類、質問への回答、一般的なセンス推論、長いテキスト推論、構造化知識の接地、および情報検索、コンテキスト内学習、 zero-shot プロンプト、および 1 回限りのプロンプト用に最適化されています。
- 使用法
zero- または few-shot プロンプトでの一般的な使用。
- コスト
クラス 3. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプルを試す:
- サンプル・プロンプト
- サンプル・プロンプト: イヤニング・コールの要約
- サンプル・プロンプト: ミーティングのトランスクリプトのサマリー
- サンプル・プロンプト: シナリオの分類
- サンプル・プロンプト: 評判の分類
- サンプル・プロンプト:「ありがとうございます」の生成
- サンプル・プロンプト: 名前付きエンティティーの抽出
- サンプル・プロンプト: ファクト抽出
- サンプル・ノートブック: watsonx を使用したサイバー・セキュリティー文書の要約
- サンプル・ノートブック: watsonx および LangChain を使用して、検索拡張世代 (RAG) を使用して質問に回答します。
- サンプル・ノートブック: watsonx、 Elasticsearch、および LangChain を使用して質問 (RAG) に回答します。
- サンプル・ノートブック: watsonx、および Elasticsearch Python ライブラリーを使用して質問に答える (RAG)
- size
200 億個のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
英語
- 命令チューニング情報
flan-ul2-20b モデルは、一般的なクロールの Web クロール・コーパスの、クリーンアップされた巨大なバージョンで事前トレーニングされています。 このモデルは、さまざまな自然言語処理タスク用に最適化するために、複数の事前トレーニング目標を使用して微調整されます。 使用されるトレーニング・データ・セットに関する詳細が公開されます。
- モデル・アーキテクチャー
エンコーダー・デコーダー
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
granite-13b-chat-v2
granite-13b-chat-v2 モデルは IBMによって提供されています。 このモデルは、ダイアログのユース・ケースに合わせて最適化されており、Virtual Agent やチャット・アプリケーションで適切に機能します。
使用法: チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。 簡潔応答を生成するための停止シーケンスとして使用できるキーワードを出力に含めます。
コスト: クラス 1。 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
130 億パラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされる自然言語
英語
- 命令チューニング情報
Granite ファミリーのモデルは、インターネット、アカデミック、コード、法務、財務の 5 つの分野の企業関連データ・セットについてトレーニングされています。 最初にモデルをトレーニングするために使用されるデータは、 IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、ヘイト、迷惑メール、または冒涜のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有しています。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
-
IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。
- 詳細情報
以下のリソースをお読みください。
granite-13b-instruct-v2
granite-13b-instruct-v2 モデルは、 IBMによって提供されています。 このモデルは、高品質の財務データを使用してトレーニングされており、財務タスクに関する優れたパフォーマンス・モデルです。 評価される財務タスクには、株式および所得の通話記録のセンチメント・スコアの提供、ニュースのヘッドラインの分類、信用リスク評価の抽出、金融の長形式テキストの要約、金融または保険関連の質問への回答が含まれます。
- 使用法
抽出、要約、および分類の各タスクをサポートします。 財務関連タスクの有用な出力を生成します。 モデル固有のプロンプト形式を使用します。 構造化出力の生成に使用できる特殊文字を受け入れます。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプルを試す:
- size
130 億パラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされる自然言語
英語
- 命令チューニング情報
Granite ファミリーのモデルは、インターネット、アカデミック、コード、法務、財務の 5 つの分野の企業関連データ・セットについてトレーニングされています。 最初にモデルをトレーニングするために使用されるデータは、 IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、ヘイト、迷惑メール、または冒涜のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有しています。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
-
IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。
- 詳細情報
以下のリソースをお読みください。
granite-7b-lab
granite-7b-lab ファウンデーション・モデルは、 IBMによって提供されています。 granite-7b-lab ファウンデーション・モデルは、 IBM Research の新しいアライメント・チューニング方式を使用しています。 chatBots(LAB) の大規模アライメントは、スキルの合成データを生成し、そのデータを使用してファウンデーション・モデルを調整することにより、既存のファウンデーション・モデルに新しいスキルを追加する方法です。
- 使用法
- 抽出、要約、分類などの一般的なタスクをサポートします。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
70 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 4096 に制限されています。
- サポートされる自然言語
英語
- 命令チューニング情報
granite-7b-lab ファウンデーション・モデルは、チャットボット (LAB) の方法論の大規模な調整を使用して反復的にトレーニングされます。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
-
watsonx.ai で提供されている granite-7b-lab ファウンデーション・モデルを使用すると、 IBM の補償に関連する契約上の保護が適用されます。 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。
- 詳細情報
以下のリソースをお読みください。
granite-8b-japanese
granite-8b-japanese モデルは、 IBMによって提供されています。 granite-8b-japanese 基盤モデルは、 IBM Granite Instruct 基盤モデルに基づいており、日本語テキストを理解して生成するようにトレーニングされています。
- 使用法
分類、抽出、質問への回答、日本語と英語の間の言語翻訳など、日本語の汎用タスクに役立ちます。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプルを試す:
- size
80 億パラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされる自然言語
英語、日本語
- 命令チューニング情報
Granite ファミリーのモデルは、インターネット、アカデミック、コード、法務、財務の 5 つの分野の企業関連データ・セットについてトレーニングされています。 granite-8b-japanese モデルは、1 兆個の英語トークンと 0.5 兆個の日本語テキスト・トークンを使用して事前にトレーニングされています。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
-
IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。
- 詳細情報
以下のリソースをお読みください。
granite-20b-multilingual
IBM Granite ファミリーのファウンデーション・モデル。 granite-20b-multilingual ファウンデーション・モデルは、 IBM Granite ファウンデーション・モデルに基づいており、英語、ドイツ語、スペイン語、フランス語、およびポルトガル語のテキストを理解して生成するようにトレーニングされています。
- 使用法
- 英語、ドイツ語、スペイン語、フランス語、およびポルトガル語のクローズド・ドメインの質問の回答、要約、世代、抽出、および分類。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
130 億パラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
- サポートされる自然言語
英語、ドイツ語、スペイン語、フランス語、およびポルトガル語
- 命令チューニング情報
Granite ファミリーのモデルは、インターネット、アカデミック、コード、法務、財務の 5 つの分野の企業関連データ・セットについてトレーニングされています。 最初にモデルをトレーニングするために使用されるデータは、 IBM データ・ガバナンス・レビューを受け、 IBMが開発した HAP フィルターによって、ヘイト、迷惑メール、または冒涜のフラグが立てられたテキストでフィルタリングされます。 IBM は、使用されるトレーニング方式およびデータ・セットに関する情報を共有しています。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
-
IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。
- 詳細情報
以下のリソースをお読みください。
Granite コード・モデル
IBM Granite ファミリーのファウンデーション・モデル。 Granite コード・ファウンデーション・モデルは、 Git コミットと人間の命令およびオープン・ソースの合成生成コード命令データ・セットの組み合わせを使用して詳細化された命令フォロー・モデルです。
- 使用法
Granite コード・ファウンデーション・モデルは、コーディング関連の命令に対応するように設計されており、コーディング支援の構築に使用できます。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプルを試す:
- 使用可能なサイズ
このモデルは、以下のサイズで使用できます。
- 30 億個のパラメーター
- 80 億パラメーター
- 200 億個のパラメーター
- 340 億パラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力)
- granite-3b-code-instruct : 2048
- granite-8b-code-instruct : 4096
- granite-20b-code-instruct : 8192
- granite-34b-code-instruct : 8192
- サポートされる自然言語
英語
- サポートされるプログラミング言語
Granite コード・ファウンデーション・モデルは、 Python、Javascript、Java、C++、Go、および Rust を含む 116 個のプログラミング言語をサポートします。 完全なリストについては、 IBM ファウンデーション・モデルを参照してください。
- 命令チューニング情報
これらのモデルは、論理的推論や問題解決スキルなどの命令に従う機能を強化するために、許可ライセンス交付を受けた命令データの組み合わせに基づいて Granite コード・ベース・モデルから微調整されました。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
-
watsonx.aiで Granite コード基盤モデルを使用すると、 IBM 補償に関連する契約上の保護が適用されます。 IBM 補償に関連する契約上の保護について詳しくは、 IBM Client Relationship Agreement および IBM watsonx.ai サービスの説明を参照してください。
- 詳細情報
以下のリソースをお読みください。
jais-13b-chat
jais-13b-chat ファウンデーション・モデルは、アラビア語と英語用の 2 か国語ラージ言語モデルであり、会話型タスクをサポートするように微調整されています。
- 使用法
- アラビア語の Q & A、要約、分類、生成、抽出、および翻訳をサポートします。
- コスト
- クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- サンプル・プロンプト: アラビア語チャット
- size
- 130 億パラメーター
- トークンの制限
- コンテキスト・ウィンドウの長さ (入力 + 出力): 2048
- サポートされる自然言語
- アラビア語 (現代標準アラビア語) および英語
- 命令チューニング情報
- Jais-13b-chat は、1260 億のアラビア語トークンと 2790 億の英語トークンでトレーニングされる基盤モデルである Jais-13b モデルに基づいています。 Jais-13b-chat は、400 万件のアラビア語と 600 万件の英語のプロンプトと応答のペアから成るキュレーション・セットを使用して微調整されます。
- モデル・アーキテクチャー
- デコーダー
- 使用許諾条件
- Apache 2.0
- 詳細情報
- 以下のリソースをお読みください。
Llama 3 チャット
Meta Llama 3 つのファウンデーション・モデルは、 Meta Llama 3 で作成され、Meta on Hugging Face によって提供される、アクセス可能なオープン・ラージ言語モデルです。 Llama 3 ファウンデーション・モデルは、さまざまなユース・ケースをサポートできる、命令の微調整された言語モデルです。
使用法: チャットボットのようなダイアログ出力を生成します。
- コスト
- 8b:クラス1
- 70b:クラス2
料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- 使用可能なサイズ
- 80 億パラメーター
- 700億のパラメータ
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 8192
注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 4096 に制限されています。
- サポートされる自然言語
英語
- 命令チューニング情報
Llama 3 は、トレーニング後の手順の改善を特長としています。これにより、ファウンデーション・モデルの出力における偽りの拒否率を削減し、調整を改善し、多様性を向上させることができます。 その結果、推論、コード生成、命令に従う機能が向上します。 Llama 3 には、より多くのトレーニング・トークン (15T) があり、これにより言語理解が向上します。
- モデル・アーキテクチャー
デコーダーのみ
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
Llama 2 チャット
Llama 2 Chat モデルは、Hugging Face 上の Meta によって提供されます。 微調整されたモデルは、チャットの生成に役立ちます。 このモデルは、公開されているオンライン・データを使用して事前にトレーニングされ、人間のフィードバックからの強化学習を使用して微調整されます。
モデルのパラメーター・バージョンとして、130 億個のパラメーターを使用するか、700 億個のパラメーターを使用するかを選択できます。
- 使用法
チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用します。
- コスト
- 13b:クラス1
- 70b:クラス2
料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
サンプルを試す:
- 使用可能なサイズ
- 130 億パラメーター
- 700億のパラメータ
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
ライト・プランの出力は、以下のように制限されます。
- 70b バージョン: 900
- 13b バージョン: 2048
- サポートされる自然言語
英語
- 命令チューニング情報
Llama 2 は、公開されているソースからの 2 兆トークンのデータに基づいて事前トレーニングされています。 微調整データには、公開されている命令データ・セットと、人間がアノテーションを付けた 100 万を超える新しい例が含まれています。
- モデル・アーキテクチャー
デコーダーのみ
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
llama2-13b-dpo-v7
llama2-13b-dpo-v7 ファウンデーション・モデルは、Minds & Company によって提供されます。 llama2-13b-dpo-v7 ファウンデーション・モデルは、Meta の llama2-13b ファウンデーション・モデルの 1 つのバージョンであり、韓国語を処理するための直接設定最適化方式を使用して命令チューニングおよび微調整が行われます。
- 使用法
- 韓国語の分類、抽出、要約、コードの作成と変換、質問への回答、生成、および retreival-augmented generation などの多くのタスクに適しています。
- コスト
- クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- サンプルを試す:
- size
- 13.2 個のパラメーター
- トークンの制限
- コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
- サポートされる自然言語
- 英語、韓国語
- 命令チューニング情報
- 直接優先最適化 (DPO) は、人間のフィードバックからの強化学習に代わるものです。 人間のフィードバックからの強化学習では、言語モデルから回答をサンプリングする必要があり、報酬モデルのトレーニングの中間ステップが必要です。 直接嗜好最適化では、モデルが嗜好データに基づいて 2 つの回答のうち最良のものを選択する、強化学習の 2 値方式が使用されます。
- モデル・アーキテクチャー
- デコーダーのみ
- 使用許諾条件
- 使用許諾条件
- 詳細情報
- 以下のリソースをお読みください。
merlinite-7b
merlinite-7b ファウンデーション・モデルは Mistral AI によって提供され、 IBMによって調整されます。 merlinite-7b ファウンデーション・モデルは、 IBM Research の新しいアライメント・チューニング・メソッドを使用して調整された Mistral-7B-v0.1 モデルの派生モデルです。 chatBots(LAB) の大規模アライメントは、スキルの合成データを生成し、そのデータを使用してファウンデーション・モデルを調整することにより、既存のファウンデーション・モデルに新しいスキルを追加する方法です。
- 使用法
- 抽出、要約、分類などの一般的なタスクをサポートします。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
70 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 32,768
注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 8192 に制限されています。
- サポートされる自然言語
英語
- 命令チューニング情報
merlinite-7b ファウンデーション・モデルは、チャットボット (LAB) 方法論の大規模な調整を使用して反復的にトレーニングされます。
- モデル・アーキテクチャー
デコーダー
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
mixtral-8x7b-instruct-v01
mixtral-8x7b-instruct-v01 ファウンデーション・モデルは、Mistral AI によって提供されます。 mixtral-8x7b-instruct-v01 ファウンデーション・モデルは、モデル・パラメーターをグループ化し、トークンを処理するグループのサブセット ( エキスパートと呼ばれる) をトークンごとに選択する、事前トレーニングされた生成スパース専門家混合ネットワークです。 その結果、各トークンは 470 億個のパラメーターにアクセスできますが、推論には 130 億個のアクティブ・パラメーターしか使用できないため、コストと待ち時間が削減されます。
- 使用法
分類、要約、生成、コードの作成と変換、および言語翻訳など、多くのタスクに適しています。 モデルのコンテキスト・ウィンドウが異常に大きいため、最大トークン数パラメーターを使用して、モデルにプロンプトを出すときのトークン制限を指定します。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
46.7 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 32,768
注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 16,384 に制限されています。
- サポートされる自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語
- 命令チューニング情報
ミクトラル・ファウンデーション・モデルは、インターネット・データに基づいて事前にトレーニングされています。 Mixtral 8x7B Instruction ファ基盤モデルは、指示に従うように微調整されています。
- モデル・アーキテクチャー
デコーダーのみ
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
mixtral-8x7b-instruct-v01-q (非推奨)
このモデルは、5.0.0リリース。 詳しくは、 ファ基盤モデルのライフサイクルを参照してください。
mixtral-8x7b-instruct-v01-q モデルは IBMによって提供されています。 mixtral-8x7b-instruct-v01-q ファ基盤モデルは、Mistral AI の Mixtral 8x7B インストラクション・ファ基盤モデルの量子化されたバージョンです。
基礎となる Mixtral 8x7B ファ基盤モデルは、モデル・パラメーターをグループ化し、トークンを処理するグループのサブセット ( エキスパートと呼ばれる) をトークンごとに選択する、まばらな専門家の混合ネットワークです。 その結果、各トークンは 470 億個のパラメーターにアクセスできますが、推論には 130 億個のアクティブ・パラメーターしか使用できないため、コストと待ち時間が削減されます。
- 使用法
分類、要約、生成、コードの作成と変換、および言語翻訳など、多くのタスクに適しています。 モデルのコンテキスト・ウィンドウが異常に大きいため、最大トークン数パラメーターを使用して、モデルにプロンプトを出すときのトークン制限を指定します。
- コスト
クラス 1. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
- size
8 x 70 億のパラメーター
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 32,768
注: 新規トークンの最大数 (ファウンデーション・モデルによって生成されるトークン) は 4096 に制限されています。
- サポートされる自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語
- 命令チューニング情報
ミクトラル・ファウンデーション・モデルは、インターネット・データに基づいて事前にトレーニングされています。 Mixtral 8x7B Instruction ファ基盤モデルは、指示に従うように微調整されています。
IBMチューニング済みモデルは、 AutoGPTQ (Generative Pre-Trained Transformers のトレーニング後の量子化) メソッドを使用して、データ転送中にモデルの重み値を 16 ビット浮動小数点データ型から 4 ビット整数データ型に圧縮します。 重みは計算時に圧縮解除されます。 データを転送するために重みを圧縮すると、モデルの GPU メモリーおよび GPU 計算エンジンのサイズ要件が削減されます。
- モデル・アーキテクチャー
デコーダーのみ
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
mt0-xxl-13b
mt0-xxl-13b モデルは、ハギング・フェイスの BigScience によって提供されます。 このモデルは、英語、英語以外の言語、およびマルチリンガル・プロンプトを使用して、言語の生成と翻訳のタスクをサポートするように最適化されています。
使用法: zero- または few-shot プロンプトでの一般的な使用。 翻訳タスクの場合は、翻訳するテキストの終わりを示すピリオドを含めてください。そうしないと、モデルが文を翻訳するのではなく、文を継続する可能性があります。
- コスト
クラス 2. 料金について詳しくは、 Watson Machine Learning プランを参照してください。
- 試してみる
以下のサンプルを試してください。
- size
130 億パラメーター
- サポートされる自然言語
多言語
- トークンの制限
コンテキスト・ウィンドウの長さ (入力 + 出力): 4096
注: ライト・プランの出力は 700 に制限されています
- サポートされる自然言語
このモデルは、108 言語のマルチリンガル・データで事前トレーニングされ、46 言語のマルチリンガル・データで微調整されて、マルチリンガル・タスクを実行します。
- 命令チューニング情報
BigScience は、そのコードおよびデータ・セットに関する詳細を公開します。
- モデル・アーキテクチャー
エンコーダー・デコーダー
- 使用許諾条件
- 詳細情報
以下のリソースをお読みください。
非推奨の基盤モデルは警告アイコンで強調表示されます。 ファウンデーション・モデルの営業活動終了日など、非推奨について詳しくは、 ファウンデーション・モデルのライフサイクルを参照してください。
詳細情報
親トピック: 生成 AI ソリューションの開発