サードパーティ基盤モデル

最終更新: 2025年4月04日
サードパーティ基盤モデル

You can choose from a collection of third-party foundation models in IBM watsonx.ai.

watsonx.ai:では以下のモデルが利用可能です:

これらのモデルのさまざまな展開方法について、またモデルの価格とコンテクスト・ウィンドウの長さに関する情報の概要については、サポートされている財団モデルをご覧ください。

For details about IBM foundation models, see IBM foundation models.

モデルの選び方

サポートされているタスクや言語など、モデル選びに役立つ要素を確認するには、 モデルの選択Foundationモデルのベンチマークを参照してください。

モデルのライフサイクルアップデートを見るには、 基盤モデルライフサイクル を参照。

基礎モデルの詳細

The foundation models in watsonx.ai support a range of use cases for both natural languages and programming languages. これらのモデルができるタスクの種類を確認するには、プロンプトのサンプルを確認し、試してみてください。

allam-1-13b-instruct

The allam-1-13b-instruct foundation model is a bilingual large language model for Arabic and English provided by the National Center for Artificial Intelligence and supported by the Saudi Authority for Data and Artificial Intelligence that is fine-tuned to support conversational tasks. ALLaM シリーズは、アラビア語の言語技術を向上させるために設計された強力な言語モデルのコレクションです。 これらのモデルは、 Llama-2 の重みで初期化され、アラビア語と英語の両方でトレーニングを受ける。

注:Prompt Labからこのモデルを推論するときは、AIのガードレールを無効にしてください。
使用方法
アラビア語のQ&A、要約、分類、生成、抽出、翻訳をサポート。
size
130億パラメータ
API価格ティア
クラス 2. 価格の詳細は表3を参照。
使用可能
  • フランクフルト・データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
  • フランクフルトのデータセンターを除き、専用利用の場合はオンデマンドで展開。
試してみる
サンプルを使って実験する:
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):4,096
対応自然言語
アラビア語(現代標準アラビア語)、英語
インストラクション・チューニング情報
allam-1-13b-instruct is based on the Allam-13b-base model, which is a foundation model that is pre-trained on a total of 3 trillion tokens in English and Arabic, including the tokens seen from its initialization. アラビア語データセットには、クリーニングと重複排除を行った後のトークンが5,000億個含まれている。 追加データは、オープンソースのコレクションとウェブクロールから収集される。 The allam-1-13b-instruct foundation model is fine-tuned with a curated set of 4 million Arabic and 6 million English prompt-and-response pairs.
モデル・アーキテクチャ
デコーダのみ
使用許諾条件
Llama 2コミュニティライセンスALLaMライセンス
詳細情報
以下の資料をお読みください:

DeepSeek-R1 蒸留モデル

Llama 3.1モデルをベースにした DeepSeek-R1 モデルの蒸留版は、 DeepSeek AIが提供しています。 DeepSeek-R1 モデルは、強力な推論機能を備えたオープンソースモデルです。 DeepSeek R1 モデルによって生成されたデータサンプルは、ベースとなる Llama モデルの微調整に使用されます。

deepseek-r1-distill-llama-8b と deepseek-r1-distill-llama-70b モデルは、 Llama 3.1 8B と Llama 3.3 70B モデルをそれぞれベースにした、 DeepSeek-R1 モデルの簡潔版です。

使用方法

zero- または few-shot のプロンプトとともに一般的に使用され、要約、分類、推論、コード作業、数学などの指示に従う作業に優れています。

利用可能なサイズ
  • 80億パラメータ
  • 700億パラメータ
API価格ティア

8b: 小さい

70: 大きい

価格の詳細は表5を参照。

使用可能

専用にオンデマンドで展開。

試してみる

サンプルを使って実験する:

トークン制限

8b および コンテキストウィンドウの長さ(入力+出力):131,072 70b:

注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、32,768に制限されています。

対応自然言語

英語

インストラクション・チューニング情報

The DeepSeek-R1 models are trained by using large-scale reinforcement learning (RL) without supervised fine-tuning (SFT) as a preliminary step. その後のRLとSFTの段階では、推論パターンを改善し、モデルを人間の好みに合わせることを目指します。 DeepSeek-R1-Distill models are fine-tuned based on open-source models, using samples generated by DeepSeek-R1.

モデル・アーキテクチャ

デコーダー

使用許諾条件

8b: ライセンス

70b: ライセンス

詳細情報

以下の資料をお読みください:

elyza-japanese-llama-2-7b-instruct

elyza-japanese-llama-2-7b-instruct モデルはELYZA, Inc.が Hugging Face で提供しています。 The elyza-japanese-llama-2-7b-instruct foundation model is a version of the Llama 2 model from Meta that is trained to understand and generate Japanese text. このモデルは、ユーザーの指示に従う様々なタスクを解決したり、対話に参加したりするために微調整されている。

使用方法
zero-または「few-shotプロンプトでの一般的な使用。 日本語の分類と抽出、英語と日本語の翻訳に効果的。 日本語でプロンプトが表示されたときに最高のパフォーマンスを発揮する。
size
70億パラメータ
API価格ティア
クラス 2. 価格の詳細は表3を参照。
使用可能
東京データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
試してみる
サンプルを使って実験する:
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):4,096
対応自然言語
日本語、英語
インストラクション・チューニング情報
日本語の学習には、WikipediaやOpen Super-large CrawledALMAnaCH coRpusCrawlコーパスの言語を分類・フィルタリングして生成された多言語コーパス)など、多くのソースからの日本語テキストが使用された。 モデルはELYZAが作成したデータセットで微調整された。 ELYZAタスク100データセットには、手作業で作成され、人間によって評価された100の多様で複雑なタスクが含まれている。 ELYZAタスク100データセットは、HuggingFaceから公開されている。
モデル・アーキテクチャ
デコーダー
使用許諾条件
使用許諾条件
詳細情報
以下の資料をお読みください:

EuroLLM 講師

EuroLLM シリーズのモデルは、Unified Transcription and Translation for Extended Reality (UTTER) プロジェクトと欧州連合によって開発された。 EuroLLM Instructのモデルは、欧州連合(EU)の24の公用語すべてと、商業的・戦略的に重要な11の国際言語を理解し、テキストを生成することに特化したオープンソースのモデルである。

使用方法

一般的なインストラクションフォローや言語翻訳など、多言語の言語タスクに適しています。

サイズ
  • 1.7 億パラメータ
  • 90億パラメータ
API価格ティア

1.7b: 小さい

9b: 小さい

価格の詳細は表5を参照。

使用可能

専用にオンデマンドで展開。

トークン制限

1.7b および コンテキスト・ウィンドウの長さ(入力+出力):4,096 9b:

対応自然言語

ブルガリア語、クロアチア語、チェコ語、デンマーク語、オランダ語、英語、エストニア語、フィンランド語、フランス語、ドイツ語、ギリシャ語、ハンガリー語、アイルランド語、イタリア語、ラトビア語、リトアニア語、マルタ語、ポーランド語、ポルトガル語、ルーマニア語、スロバキア語、スロベニア語、スペイン語、スウェーデン語、アラビア語、カタロニア語、中国語、ガリシア語、ヒンディー語、日本語、韓国語、ノルウェー語、ロシア語、トルコ語、ウクライナ語。

インストラクション・チューニング情報

モデルは、ウェブデータ、並列データ、ウィキペディア、Arxiv、複数の書籍、アポロデータセットからサポートされている自然言語全体で4兆トークンに対して学習される。

モデル・アーキテクチャ

デコーダー

使用許諾条件

Apache 2.0ライセンス

詳細情報

以下の資料をお読みください:

flan-t5-xl-3b

flan-t5-xl-3b モデルは、 Google が Hugging Face で提供しています。 このモデルは、事前に学習されたテキストからテキストへの転送トランフォーマー ( T5 )モデルに基づいており、より良い zero-few-shot パフォーマンスを達成するために命令のファイン・チューニング方法を使用しています。 モデルはまた、推論タスクを実行する能力を向上させるために、思考の連鎖データを使って微調整される。

注:This foundation model can be tuned by using the Tuning Studio.
使用方法
zero-または「few-shotプロンプトでの一般的な使用。
size
30億パラメータ
API価格ティア
クラス 1. 価格の詳細は 3と表5を参照。
使用可能
  • マルチテナント・ハードウェア上に配置された IBMが提供。
  • 専用にオンデマンドで展開。
試してみる
サンプル・プロンプト
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):4,096
対応自然言語
マルチリンガル
インストラクション・チューニング情報
このモデルは、従来の自然言語処理タスクに加えて、思考の連鎖データから多段階の推論を行うタスクで微調整された。 使用したトレーニングデータセットの詳細は公表されている。
モデル・アーキテクチャ
エンコーダー・デコーダー
使用許諾条件
Apache 2.0ライセンス
詳細情報
以下の資料をお読みください:

flan-t5-xxl-11b

flan-t5-xxl-11b モデルは、 Google が Hugging Face で提供しています。 このモデルは、事前に学習されたテキストからテキストへの転送変換器T5モデルに基づいており、より優れた「zero-」と「few-shot性能を達成するために命令の微調整方法を使用している。 モデルはまた、推論タスクを実行する能力を向上させるために、思考の連鎖データを使って微調整される。

使用方法
zero-または「few-shotプロンプトでの一般的な使用。
size
110億パラメータ
API価格ティア
クラス 2. 価格の詳細は 3と表5を参照。
使用可能
  • マルチテナント・ハードウェア上に配置された IBMが提供。
  • 専用にオンデマンドで展開。
試してみる
サンプルを使って実験する:
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):4,096
対応自然言語
英語、ドイツ語、フランス語
インストラクション・チューニング情報
このモデルは、従来の自然言語処理タスクに加えて、思考の連鎖データから多段階の推論を行うタスクで微調整された。 使用したトレーニングデータセットの詳細は公表されている。
モデル・アーキテクチャ
エンコーダー・デコーダー
使用許諾条件
Apache 2.0ライセンス
詳細情報
以下の資料をお読みください:

flan-ul2-20b

flan-ul2-20b モデルは、 Google が Hugging Face で提供しています。 このモデルはUnifying Language Learning ParadigmsUL2)を用いて学習された。 このモデルは、言語生成、言語理解、テキスト分類、質問応答、常識的推論、長文推論、構造化知識接地、情報検索、文脈内学習、「zero-shotプロンプト、ワンショットプロンプトに最適化されている。

使用方法
zero-または「few-shotプロンプトでの一般的な使用。
size
200億パラメータ
API価格ティア
クラス 3. 価格の詳細は 3と表5を参照。
使用可能
  • マルチテナント・ハードウェア上に配置された IBMが提供。
  • 専用にオンデマンドで展開。
試してみる
サンプルを使って実験する:
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):4,096
対応自然言語
英語
インストラクション・チューニング情報
flan-ul2-20bモデルは、Common Crawlの膨大でクリーンなウェブクロールコーパスで事前学習される。 このモデルは、様々な自然言語処理タスクに最適化するために、複数の事前学習目標によって微調整される。 使用したトレーニングデータセットの詳細は公表されている。
モデル・アーキテクチャ
エンコーダー・デコーダー
使用許諾条件
Apache 2.0ライセンス
詳細情報
以下の資料をお読みください:

jais-13b-chat

The jais-13b-chat foundation model is a bilingual large language model for Arabic and English that is fine-tuned to support conversational tasks.

使用方法
アラビア語のQ&A、要約、分類、生成、抽出、翻訳をサポート。
size
130億パラメータ
API価格ティア
クラス 2. 価格の詳細は表3を参照。
使用可能
フランクフルト・データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
試してみる
サンプルプロンプトアラビア語チャット
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):2,048
対応自然言語
アラビア語(現代標準アラビア語)、英語
インストラクション・チューニング情報
Jais-13b-chat is based on the Jais-13b model, which is a foundation model that is trained on 116 billion Arabic tokens and 279 billion English tokens. Jais-13b-chat 400万のアラビア語と600万の英語の即答対話型ペアの厳選されたセットで微調整されています。
モデル・アーキテクチャ
デコーダー
使用許諾条件
Apache 2.0ライセンス
詳細情報
以下の資料をお読みください:

Llama 3.3 70B Instruct

Meta Llama 3.3多言語大規模言語モデル(LLM)は、700億のパラメータを持つ事前学習および命令チューニングされた生成モデル(テキストイン/テキストアウト)です。

The llama-3-3-70b-instruct is a revision of the popular Llama 3.1 70B Instruct foundation model. The Llama 3.3 foundation model is better at coding, step-by-step reasoning, and tool-calling. Llama 3.3モデルは小型ながら、 Llama 3.1 405b モデルと同等の性能を発揮するため、開発者にとって最適な選択肢となります。

使用方法

チャットボットのように多言語のダイアログ出力を生成します。 モデル固有のプロンプト形式を使用。

size

700億パラメータ

API価格ティア

第13類

価格の詳細は表3を参照。

使用可能
  • モデルの量子化バージョンは、マルチテナント・ハードウェア上に配置された IBMによって提供されている。

  • このモデルには2つのバージョンがあり、オンデマンドで専用に使用することができる:

    • llama-3-3-70b-instruct-hf: オリジナルバージョンは でメタによって公開された。 Hugging Face
    • llama-3-3-70b-instruct: 4GPUではなく2GPUで展開できる量子化バージョン。
試してみる

サンプルを使って実験する:

トークン制限

コンテキスト・ウィンドウの長さ(入力+出力):131,072

対応自然言語

英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語

インストラクション・チューニング情報

Llama 3.3は、一般に公開されているソースからの15兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、2500万以上の合成生成例が含まれる。

モデル・アーキテクチャ

デコーダのみ

使用許諾条件
詳細情報

以下の資料をお読みください:

Llama 3.2 Instruct

Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-3-2-1b-instructと llama-3-2-3b-instructは、モバイル機器に収まる最小のLlama 3.2モデルです。 このモデルは軽量でテキストのみのモデルであり、高度にパーソナライズされたオンデバイス・エージェントの構築に使用できる。

たとえば、最近受け取った10通のメッセージを要約したり、来月のスケジュールを要約したりするよう、モデルに頼むことができる。

使用方法

チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用する。 Llama 3.2インストラクター・モデルは、サイズが小さく、必要な計算リソースとメモリが控えめであるため、モバイルやその他のエッジ・デバイスを含むほとんどのハードウェア上でローカルに実行することができる。

サイズ
  • 10億パラメータ
  • 30億パラメータ
API価格ティア
  • 1b:クラスC1
  • 3b:クラス8

価格の詳細は表3を参照。

価格の詳細については、ジェネレーティブAIアセットの課金詳細をご覧ください。

使用可能
  • マルチテナント・ハードウェア上に配置された IBMが提供。
試してみる
トークン制限

コンテキストウィンドウの長さ(入力+出力)

  • 1b:131,072
  • 3b:131,072

新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。

対応自然言語

英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語

インストラクション・チューニング情報

一般に公開されているソースからの最大9兆トークンのデータで事前学習。 Llama 3.18Bおよび70Bモデルからのロジットは、モデル開発の事前トレーニング段階に組み込まれ、これらの大規模モデルからの出力(ロジット)がトークン・レベルのターゲットとして使用された。 ポストトレーニングでは、教師ありファインチューニング(SFT)、リジェクションサンプリング(RS)、直接選好最適化(DPO)を用いて、事前学習したモデルの位置合わせを行う。

モデル・アーキテクチャ

デコーダのみ

使用許諾条件
詳細情報

以下の資料をお読みください:

Llama 3.2 Vision Instruct

Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-3-2-11b-vision-instructと llama-3-2-90b-vision-instructモデルは、文書レベルの理解、チャートやグラフの解釈、画像のキャプションのような画像イン、テキストアウトのユースケースのために構築されています。

使用方法

チャットボットのようなダイアログ出力を生成し、分類、オブジェクト検出と識別、画像からテキストへの転写(手書きを含む)、文脈に応じたQ&A、データ抽出と処理、画像比較、個人的な視覚支援を含むコンピュータ・ビジョン・タスクを実行できる。 モデル固有のプロンプト形式を使用。

サイズ
  • 110億パラメータ
  • 900億パラメータ
API価格ティア
  • 11b:クラス9
  • 90b:クラス10

価格の詳細は表3を参照。

使用可能

マルチテナント・ハードウェア上に配置された IBMが提供。

試してみる
トークン制限

コンテキストウィンドウの長さ(入力+出力)

  • 11b:131,072
  • 90b:131,072

新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。 モデルに提出した画像に対してカウントされるトークンは、コンテキストウィンドウの長さには含まれません。

対応自然言語

英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語はテキスト入力のみ。 画像が入力に含まれている場合のみ英語。

インストラクション・チューニング情報

Llama 3.2 Visionモデルは、コアとなる大規模言語モデルの重みとは別に学習された画像推論アダプターの重みを使用する。 この分離はモデルの一般的な知識を保持し、事前学習時と実行時の両方でモデルをより効率的にする。 The Llama 3.2 Vision models were pretrained on 6 billion image-and-text pairs, which required far fewer compute resources than were needed to pretrain the Llama 3.1 70B foundation model alone. Llama 3.2モデルも、入力が必要な場合にのみ画像推論用の計算リソースをより多く利用できるため、効率的に動作します。

モデル・アーキテクチャ

デコーダのみ

使用許諾条件
詳細情報

以下の資料をお読みください:

llama-guard-3-11b-vision

Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-guard-3-11b-visionは、テキストのみのLlama-Guard-3モデルをマルチモーダルに進化させたものである。 このモデルは、ユーザー入力(プロンプト分類)に含まれる画像やテキストコンテンツを安全か安全でないかの分類に使用できる。

使用方法

モデルを使用して、画像からテキストへのプロンプトで画像とテキストの安全性をチェックする。

size
  • 110億パラメータ
API価格ティア

クラス 9. 価格の詳細は表3を参照。

使用可能

マルチテナント・ハードウェア上に配置された IBMが提供。

試してみる
トークン制限

コンテキスト・ウィンドウの長さ(入力+出力):131,072

新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。 モデルに提出した画像に対してカウントされるトークンは、コンテキストウィンドウの長さには含まれません。

対応自然言語

英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語はテキスト入力のみ。 画像が入力に含まれている場合のみ英語。

インストラクション・チューニング情報

コンテンツの安全性分類のために微調整された事前学習済みモデル。 安全でないと分類されるコンテンツの種類については、モデルカードを参照してください。

モデル・アーキテクチャ

デコーダのみ

使用許諾条件
詳細情報

以下の資料をお読みください:

Llama 3.18b

Meta Llama 3.1の基礎モデルのコレクションは'Metaによって提供される。 The Llama 3.1 base foundation model is a multilingual model that supports tool use, and has overall stronger reasoning capabilities.

使用方法
長文テキストの要約や、多言語会話エージェントやコーディングアシスタントに使用できます。
size
80億パラメータ
API価格ティア
価格の詳細は表5を参照。
使用可能
専用にオンデマンドで展開。
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
モデル・アーキテクチャ
デコーダのみ
使用許諾条件
詳細情報
以下の資料をお読みください:

Llama 3.1 Instruct

Meta Llama 3.1の基礎モデルのコレクションは'Metaによって提供される。 Llama 3.1の基礎モデルは、多言語対話のユースケースに最適化された、事前学習とインストラクションチューニングが施されたテキストのみの生成モデルです。 このモデルは、人間のフィードバックによる教師ありの微調整と強化学習を使って、人間の「親切」と「安全」の嗜好に合わせる。

The llama-3-405b-instruct model is Meta's largest open-sourced foundation model to date. 基盤モデル、合成データ生成器、学習後のデータランキング判定器、またはより推論に適した派生モデルの専門能力を向上させるモデル教師/監督者としても使用できます。

使用方法

チャットボットのようなダイアログ出力を生成する。 モデル固有のプロンプト形式を使用。

サイズ
  • 80億パラメータ
  • 700億パラメータ
  • 4050億パラメータ
API価格ティア
  • 8b:クラス1
  • 70b:クラス2
  • 405b:クラス3(入力)、クラス7(出力)

価格の詳細は表3を参照。

8b および 70b モデルをオンデマンドで展開する際の価格の詳細については 、表5 を参照してください。

使用可能
  • 405b: IBM がマルチテナントハードウェア上に展開して提供。
  • 8b 70b のみ:専用利用の場合はオンデマンドで展開。

警告アイコン 8b、 の 70b 基盤モデルモデルの IBM デプロイメント非推奨。 詳細については、Foundationモデルのライフサイクルを参照してください。

試してみる
トークン制限

コンテキストウィンドウの長さ(入力+出力)

  • 8bおよび70b:131,072

  • 405b:16,384

    • モデルは131,072のコンテキストウィンドウ長をサポートしているが、モデルがレスポンスを生成する時間を短縮するため、ウィンドウは16,384に制限されている。
  • 新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は4,096個に制限されている。

対応自然言語

英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語

インストラクション・チューニング情報

Llama 3.1は、一般に公開されているソースからの15兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、2500万以上の合成生成例が含まれる。

モデル・アーキテクチャ

デコーダのみ

使用許諾条件
詳細情報

以下の資料をお読みください:

Llama 3 Instruct

The Meta Llama 3 family of foundation models are accessible, open large language models that are built with Meta Llama 3 and provided by Meta on Hugging Face. Llama 3の基礎モデルは、様々なユースケースをサポートできるように細かく調整された言語モデルです。

使用方法

チャットボットのようなダイアログ出力を生成する。

サイズ
  • 80億パラメータ
  • 700億パラメータ
API価格ティア
  • 8b:クラス1
  • 70b:クラス2

価格の詳細は 3と表5を参照。

使用可能
  • IBM がマルチテナントハードウェア上に展開(シドニーリージョンのみで 70b )。
  • 専用にオンデマンドで展開。
試してみる

サンプルプロンプトLlama 3」と会話する

トークン制限

コンテキストウィンドウの長さ(入力+出力)

  • 8b:8,192
  • 70b:8,192

注:新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの最大数は、4,096個に制限されています。

対応自然言語

英語

インストラクション・チューニング情報

Llama 3 features improvements in post-training procedures that reduce false refusal rates, improve alignment, and increase diversity in the foundation model output. その結果、推論能力、コード生成能力、命令追従能力が向上した。 Llama 3 より多くのトレーニングトークン( )があり、その結果、言語理解力が向上します。 15T

モデル・アーキテクチャ

デコーダのみ

使用許諾条件

META LLAMA 3 コミュニティライセンス

詳細情報

以下の資料をお読みください:

Llama 2 Chat

Llama 2 Chat モデルは、 Meta より Hugging Face にて提供されています。 微調整されたモデルはチャット生成に役立つ。 モデルは、一般に公開されているオンラインデータを使って事前に学習され、人間のフィードバックから強化学習を使って微調整される。

130億パラメータまたは700億パラメータバージョンのモデルを使用することができます。

使用方法

チャットボットのようなダイアログ出力を生成する。 モデル固有のプロンプト形式を使用。

size
  • 130億パラメータ
  • 700億パラメータ
API価格ティア

クラス 1. 価格の詳細は 3と表5を参照。

使用可能
  • 13b
    • マルチテナント・ハードウェア上に配置された IBMが提供
    • 専用にオンデマンドで展開
  • 70b
    • 専用にオンデマンドで展開

警告アイコン IBM -provided デプロイメント of this 基盤モデル廃止された。 基盤モデルライフサイクル を参照してください。

試してみる

サンプルを使って実験する:

トークン制限

コンテキストウィンドウの長さ(入力+出力)

  • 13b:4,096
  • 70b:4,096
対応自然言語

英語

インストラクション・チューニング情報

Llama 2は、一般に公開されているソースからの2兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、人間が注釈をつけた100万以上の新しい例が含まれている。

モデル・アーキテクチャ

デコーダのみ

使用許諾条件

使用許諾条件

詳細情報

以下の資料をお読みください:

mistral-large

Mistral Large 2 Mistral AI によって開発された大規模言語モデルのファミリーです。 The mistral-large foundation model is fluent in and understands the grammar and cultural context of English, French, Spanish, German, and Italian. 基盤モデル、数十の他の言語も理解できます。 このモデルには大きなコンテキスト・ウィンドウがあり、検索支援生成(RAG)のユースケースで送信するプロンプトに、大きな文書をコンテキスト情報として追加することができる。 The mistral-large foundation model is effective at programmatic tasks, such as generating, reviewing, and commenting on code, function calling, and can generate results in JSON format.

さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。

使用方法

テキスト理解、変換、コード生成などの複雑な多言語推論タスクに適しています。 モデルのコンテキストウィンドウが大きいため、プロンプトを表示する際には、max tokensパラメータを使ってトークンの上限を指定してください。

API価格ティア

Mistral Large モデルの推論価格には、乗数による割り当ては適用されません。 以下の特別価格帯が使用されます

  • 入力階層Mistral Large
  • 出力レベルMistral Large

価格の詳細は表3を参照。 このモデルをオンデマンドで展開する際の価格の詳細については 、表5 を参照してください。

ご注意: This foundation model has an additional access fee that is applied per hour of use.
使用可能
  • マルチテナント・ハードウェア上に配置された IBMが提供
  • 専用にオンデマンドで展開
試してみる
トークン制限

コンテキスト・ウィンドウの長さ(入力+出力):131,072

注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。

対応自然言語

英語、フランス語、ドイツ語、イタリア語、スペイン語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語、その他多数の言語。

サポートされるプログラミング言語

mistral-largeモデルは、Python、Java、C、C++、JavaScript,Bash、Swift、Fortranを含む80以上のプログラミング言語で学習されている。

インストラクション・チューニング情報

The mistral-large foundation model is pre-trained on diverse datasets like text, codebases, and mathematical data from various domains.

モデル・アーキテクチャ

デコーダのみ

使用許諾条件

補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。

詳細情報
以下の資料をお読みください:

mistral-large-instruct-2411

The mistral-large-instruct-2411 foundation model from Mistral AI and belongs to the Mistral Large 2 family of models. このモデルは、推論、知識、コーディングに特化しています。 The model extends the capabilities of the Mistral-Large-Instruct-2407 foundation model to include better handling of long prompt contexts, system prompt instructions, and function calling requests.

使用方法

The mistral-large-instruct-2411 foundation model is multilingual, proficient in coding, agent-centric, and adheres to system prompts to aid in retrieval-augmented generation tasks and other use cases where prompts with large context need to be handled.

size

123億のパラメータ

API価格ティア

価格の詳細は表5を参照。

ご注意: This foundation model has an additional access fee that is applied per hour of use.
使用可能

専用にオンデマンドで展開。

試してみる
トークン制限

コンテキスト・ウィンドウの長さ(入力+出力):131,072

対応自然言語

複数の言語に対応し、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語に強い。

サポートされるプログラミング言語

The mistral-large-instruct-2411 foundation model has been trained on over 80 programming languages including Python, Java, C, C++, JavaScript, Bash, Swift, and Fortran.

インストラクション・チューニング情報

The mistral-large-instruct-2411 foundation model extends the Mistral-Large-Instruct-2407 foundation model from Mistral AI. トレーニングにより、モデルの推論能力が向上した。 また、モデルをより慎重かつ的確な反応ができるように微調整し、解決策を見つけられない場合や、確信を持って回答できるだけの十分な情報がない場合を認識できるようにすることで、 ハルシネーションを減らすことにも重点的に取り組みました。

使用許諾条件

補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。

詳細情報
以下の資料をお読みください:

mistral-nemo-instruct-2407

The mistral-nemo-instruct-2407 foundation model from Mistral AI was built in collaboration with NVIDIA. Mistral NeMo、推論、世界知識、コーディングの正確さにおいて、特にこのサイズのモデルとしては非常に優れた結果を出している。

使用方法
Mistral NeMoモデルは多言語で、関数呼び出しについて学習される。
size
120億パラメータ
API価格ティア
価格の詳細は表5を参照。
使用可能
専用にオンデマンドで展開。
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
対応自然言語
複数の言語に対応し、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語に強い。
サポートされるプログラミング言語
Mistral NeMoモデルは、いくつかのプログラミング言語で学習されている。
インストラクション・チューニング情報
Mistral NeMo高度な微調整とアライメントの段階を経た。
使用許諾条件
Apache 2.0ライセンス
詳細情報
以下の資料をお読みください:

mistral-small-24b-instruct-2501

Mistral Small 3 is a cost-efficient, fast, and reliable foundation model developed by Mistral AI. The mistral-small-24b-instruct-2501 model is instruction fine-tuned and performs well in tasks that require some reasoning ability, such as data extraction, summarizing a document, or writing descriptions. エージェンシーアプリケーションをサポートするように構築されており、システムプロンプトへの準拠と、JSON出力生成機能付きのコール機能を備えています。

さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。

使用方法

会話エージェントや機能呼び出しに最適です。

API価格ティア

第9類

価格の詳細は表3を参照。

使用可能

IBM が提供するサービスは、フランクフルトリージョン内のマルチテナントハードウェアにのみ展開されています。

試してみる

サンプル・プロンプト

トークン制限

コンテキスト・ウィンドウの長さ(入力+出力):32,768

注。

  • 最大新規トークン、つまり、リクエストごとに基盤モデルによって生成されるトークンは、16,384に制限されています。
対応自然言語

英語、フランス語、ドイツ語、イタリア語、スペイン語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語、その他多数の言語。

サポートされるプログラミング言語

mistral-small-24b-instruct-2501 モデルは、 Python、Java、C、C++、 JavaScript,、Bash、Swift、 Fortran を含む80以上のプログラミング言語でトレーニングされています。

インストラクション・チューニング情報

The mistral-small-24b-instruct-2501 foundation model is pre-trained on diverse datasets like text, codebases, and mathematical data from various domains.

モデル・アーキテクチャ

デコーダのみ

使用許諾条件

Apache 2.0ライセンス

詳細情報

以下の資料をお読みください:

mixtral-8x7b-base

The mixtral-8x7b-base foundation model is provided by Mistral AI. The mixtral-8x7b-base foundation model is a generative sparse mixture-of-experts network that groups the model parameters, and then for each token chooses a subset of groups (referred to as 専門家) to process the token. その結果、各トークンは470億のパラメーターにアクセスできるが、推論に使用するアクティブパラメーターは130億にとどまり、コストとレイテンシーが削減される。

使用方法

分類、要約、生成、コード作成と変換、言語翻訳など、多くのタスクに適しています。

size

46.46.7億パラメータ

API価格ティア

価格の詳細は表5を参照。

使用可能

専用にオンデマンドで展開。

トークン制限

コンテキスト・ウィンドウの長さ(入力+出力):32,768

注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。

対応自然言語

英語、フランス語、ドイツ語、イタリア語、スペイン語

モデル・アーキテクチャ

デコーダのみ

使用許諾条件

Apache 2.0ライセンス

詳細情報

以下の資料をお読みください:

mixtral-8x7b-instruct-v01

The mixtral-8x7b-instruct-v01 foundation model is provided by Mistral AI. The mixtral-8x7b-instruct-v01 foundation model is a pretrained generative sparse mixture-of-experts network that groups the model parameters, and then for each token chooses a subset of groups (referred to as 専門家) to process the token. その結果、各トークンは470億のパラメーターにアクセスできるが、推論に使用するアクティブパラメーターは130億にとどまり、コストとレイテンシーが削減される。

使用方法

分類、要約、生成、コード作成と変換、言語翻訳など、多くのタスクに適しています。 モデルのコンテキストウィンドウが異常に大きいため、モデルにプロンプトを出す際には、max tokensパラメータを使ってトークンの上限を指定してください。

size

46.46.7億パラメータ

API価格ティア

クラス 1. 価格の詳細は表3を参照。

試してみる

サンプル・プロンプト

トークン制限

コンテキスト・ウィンドウの長さ(入力+出力):32,768

注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。

対応自然言語

英語、フランス語、ドイツ語、イタリア語、スペイン語

インストラクション・チューニング情報

Mixtral 基盤モデルはインターネットデータで事前学習済みです。 Mixtral 8x7B Instruction 基盤モデルは、指示に従うように微調整されています。

モデル・アーキテクチャ

デコーダのみ

使用許諾条件

Apache 2.0ライセンス

詳細情報

以下の資料をお読みください:

mt0-xxl-13b

mt0-xxl-13b モデルは、 BigScience が Hugging Face で提供しています。 このモデルは、英語、英語以外の言語、多言語プロンプトを使用した言語生成および翻訳タスクをサポートするように最適化されている。

使用法zero-または「few-shotプロンプトでの一般的な使用。 翻訳タスクの場合、翻訳してほしいテキストの終わりを示すピリオドを入れてください。

size
130億パラメータ
API価格ティア
価格の詳細は表5を参照。
使用可能
  • 専用にオンデマンドで展開。
試してみる
以下のサンプルで実験してみよう:
対応自然言語
マルチリンガル
トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):4,096
対応自然言語
モデルは108言語の多言語データで事前学習され、46言語の多言語データで微調整され、多言語タスクを実行する。
インストラクション・チューニング情報
BigScienceはそのコードとデータセットの詳細を公表している。
モデル・アーキテクチャ
エンコーダー・デコーダー
使用許諾条件
Apache 2.0ライセンス
詳細情報
以下の資料をお読みください:

pixtral-12b

Pixtral 12B は、 Mistral AI によって開発されたマルチモーダルモデルです。 The pixtral-12b foundation model is trained to understand both natural images and documents and is able to ingest images at their natural resolution and aspect ratio, providing flexibility on the number of tokens used to process an image. 基盤モデル、長い文脈ウィンドウで複数のイメージをサポートします。 このモデルは、イメージ・イン、テキスト・アウトのマルチモーダルなタスクに効果的で、インストラクション・フォローに優れている。

使用方法
図表の理解、文書に関する質問への回答、マルチモーダル推論、および指示に従うこと。
size
120億パラメータ
API価格ティア
クラス 9. 価格の詳細は表3を参照。

使用可能

試してみる

文書や画像を使ったチャット

トークン制限

コンテキスト・ウィンドウの長さ(入力+出力):128,000

新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。

対応自然言語

英語

インストラクション・チューニング情報

pixtral-12bモデルは、インターリーブされた画像とテキストデータで学習され、ゼロから学習された4億パラメータのビジョンエンコーダを持つMistral Nemoモデルをベースにしている。

モデル・アーキテクチャ

デコーダのみ

使用許諾条件

Apache 2.0ライセンス

詳細情報

以下の資料をお読みください:

非推奨の基盤モデルモデルは、非推奨の警告アイコン 警告アイコン で強調表示されます。 廃止に関する詳細情報 (基盤モデル取り下げの詳細を含む)については、 基盤モデルライフサイクル をご覧ください。

詳細はこちら

親トピック: サポートされる基盤モデル