サードパーティ基盤モデル
IBM watsonx.ai のサードパーティの基盤モデルコレクションから選ぶことができる。
watsonx.ai:では以下のモデルが利用可能です:
- allam-1-13b-instruct
- codellama-34b-instruct-hf
- deepseek-r1-distill-llama-8b
- deepseek-r1-distill-llama-70b
- elyza-japanese-llama-2-7b-instruct
- eurollm-1-7b-instruct
- eurollm-9b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- jais-13b-chat
- llama-4-maverick-17b-128e-instruct-fp8
- llama-4-scout-17b-16e-instruct
- llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision
- llama-3-1-8b
- llama-3-1-8b-instruct
- llama-3-1-70b
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-2-13b-chat
- llama-2-70b-chat
- mistral-large
- mistral-large-instruct-2407
- mistral-large-instruct-2411
- mistral-medium-2505
- mistral-nemo-instruct-2407
- mistral-small-3-1-24b-instruct-2503
- mistral-small-24b-instruct-2501
- mixtral-8x7b-base
- mixtral-8x7b-instruct-v01
- mt0-xxl-13b
- pixtral-12b
- poro-34b-chat
これらのモデルのさまざまな展開方法について、またモデルの価格とコンテクスト・ウィンドウの長さに関する情報の概要については、サポートされている財団モデルをご覧ください。
IBM 基盤モデル詳細については、 IBM 基盤モデル を参照のこと。
モデルの選び方
サポートされているタスクや言語など、モデル選びに役立つ要素を確認するには、 モデルの選択と Foundationモデルのベンチマークを参照してください。
非推奨の基盤モデルモデルは、非推奨の警告アイコン で強調表示されます。 廃止に関する詳細情報 (基盤モデル取り下げの詳細を含む)については、 基盤モデルライフサイクル をご覧ください。
基礎モデルの詳細
watsonx.ai の基盤モデル、自然言語とプログラミング言語の両方について、さまざまなユースケースをサポートしている。 これらのモデルができるタスクの種類を確認するには、プロンプトのサンプルを確認し、試してみてください。
allam-1-13b-instruct
allam-1-13b-instruct 基盤モデル、国立人工知能センターが提供し、サウジアラビアのデータ・人工知能庁がサポートしているアラビア語と英語のバイリンガル大規模言語モデルで、会話タスクをサポートするようにファイン・チューニングいる。 ALLaM シリーズは、アラビア語の言語技術を向上させるために設計された強力な言語モデルのコレクションです。 これらのモデルは、 Llama-2 の重みで初期化され、アラビア語と英語の両方でトレーニングを受ける。
- 使用法
- アラビア語のQ&A、要約、分類、生成、抽出、翻訳をサポート。
- size
- 130億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表3を参照。
- 使用可能
- フランクフルト・データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
- フランクフルトのデータセンターを除き、専用利用の場合はオンデマンドで展開。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- アラビア語(現代標準アラビア語)、英語
- インストラクション・チューニング情報
- allam-1-13b-instruct は、 モデルに基づいている。これは、英語とアラビア語の合計3兆個のトークン(初期化時から見られるトークンも含む)に対して事前に訓練された Allam-13b-base 基盤モデルである。 アラビア語データセットには、クリーニングと重複排除を行った後のトークンが5,000億個含まれている。 追加データは、オープンソースのコレクションとウェブクロールから収集される。 allam-1-13b-instruct の基盤モデル、400万組のアラビア語と600万組の英語のプロンプトとレスポンスのペアのキュレーションセットでファイン・チューニングいる。
- モデル・アーキテクチャ
- デコーダのみ
- 使用許諾条件
- Llama 2コミュニティライセンスと ALLaMライセンス
- 詳細情報
- 以下の資料をお読みください:
codellama-34b-instruct-hf
Meta の Llama 2 に基づくプログラムコード生成モデル。 Code Llama はコードを生成し、議論するためにファイン・チューニング。
- 使用法
- Code Llama を使用して、自然言語入力に基づいてコードを生成したり、コードを説明したり、コードを完成させてデバッグしたりするプロンプトを作成します。
- size
- 340億パラメータ
- API価格ティア
- 価格の詳細は表5を参照
- 使用可能
- 専用にオンデマンドで展開。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):16,384
- 注:新しいトークン、つまりリクエストごとに基盤モデル生成されるトークンの上限は、8,192個に制限されています。
- 対応自然言語
- 英語
- サポートされるプログラミング言語
- codellama-34b-instruct-hf Python、C++、Java、PHP、Typescript(Javascript)、C#、Bashなど、多くのプログラミング言語をサポートして基盤モデル。
- インストラクション・チューニング情報
- インストラクションファイン・チューニング版には、自然言語によるインストラクション入力と期待されるアウトプットが与えられ、自然言語で有用かつ安全な回答を生成するようモデルを導いた。
- モデル・アーキテクチャ
- デコーダー
- 使用許諾条件
- 使用許諾条件
- 詳細情報
- 以下の資料をお読みください:
DeepSeek-R1 蒸留モデル
Llama 3.1モデルをベースにした DeepSeek-R1 モデルの蒸留版は、 DeepSeek AIが提供しています。 DeepSeek-R1 モデルは、強力な推論機能を備えたオープンソースモデルです。 DeepSeek R1 モデルによって生成されたデータサンプルは、ベースとなる Llama モデルの微調整に使用されます。
deepseek-r1-distill-llama-8b と deepseek-r1-distill-llama-70b モデルは、 Llama 3.1 8B と Llama 3.3 70B モデルをそれぞれベースにした、 DeepSeek-R1 モデルの簡潔版です。
- 使用法
zero- または few-shot のプロンプトとともに一般的に使用され、要約、分類、推論、コード作業、数学などの指示に従う作業に優れています。
- 利用可能なサイズ
- 80億パラメータ
- 700億パラメータ
- API価格ティア
8b: 小さい
70: 大きい
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- 試してみる
サンプルを使って実験する:
- トークン制限
8b および コンテキストウィンドウの長さ(入力+出力):131,072 70b:
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、32,768に制限されています。
- 対応自然言語
英語
- インストラクション・チューニング情報
DeepSeek-R1、その前段階として教師ありファイン・チューニング (SFT)なしの大規模強化学習(RL)を用いてモデルを学習する。 その後のRLとSFTの段階では、推論パターンを改善し、モデルを人間の好みに合わせることを目指します。 DeepSeek-R1-Distill モデルは、 によって生成されたサンプルを使用して、オープンソースのモデルに基づいて DeepSeek-R1ファイン・チューニングれる。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
8b: ライセンス
70b: ライセンス
- 詳細情報
以下の資料をお読みください:
elyza-japanese-llama-2-7b-instruct
elyza-japanese-llama-2-7b-instruct モデルはELYZA, Inc.が Hugging Face で提供しています。 elyza-japanese-llama-2-7b-instruct 基盤モデル、 Meta の Llama 2 モデルのバージョンで、日本語テキストを理解し生成するように訓練されている。 このモデルは、ユーザーの指示に従う様々なタスクを解決したり、対話に参加したりするために微調整されている。
- 使用法
- zero-または「few-shotプロンプトでの一般的な使用。 日本語の分類と抽出、英語と日本語の翻訳に効果的。 日本語でプロンプトが表示されたときに最高のパフォーマンスを発揮する。
- size
- 70億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表3を参照。
- 使用可能
- 東京データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- 日本語、英語
- インストラクション・チューニング情報
- 日本語の学習には、WikipediaやOpen Super-large CrawledALMAnaCH coRpusCrawlコーパスの言語を分類・フィルタリングして生成された多言語コーパス)など、多くのソースからの日本語テキストが使用された。 モデルはELYZAが作成したデータセットで微調整された。 ELYZAタスク100データセットには、手作業で作成され、人間によって評価された100の多様で複雑なタスクが含まれている。 ELYZAタスク100データセットは、HuggingFaceから公開されている。
- モデル・アーキテクチャ
- デコーダー
- 使用許諾条件
- 使用許諾条件
- 詳細情報
- 以下の資料をお読みください:
EuroLLM 講師
EuroLLM シリーズのモデルは、Unified Transcription and Translation for Extended Reality (UTTER) プロジェクトと欧州連合によって開発された。 EuroLLM Instructのモデルは、欧州連合(EU)の24の公用語すべてと、商業的・戦略的に重要な11の国際言語を理解し、テキストを生成することに特化したオープンソースのモデルである。
- 使用法
一般的なインストラクションフォローや言語翻訳など、多言語の言語タスクに適しています。
- サイズ
- 1.7 億パラメータ
- 90億パラメータ
- API価格ティア
1.7b: 小さい
9b: 小さい
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- トークン制限
1.7b および コンテキスト・ウィンドウの長さ(入力+出力):4,096 9b:
- 対応自然言語
ブルガリア語、クロアチア語、チェコ語、デンマーク語、オランダ語、英語、エストニア語、フィンランド語、フランス語、ドイツ語、ギリシャ語、ハンガリー語、アイルランド語、イタリア語、ラトビア語、リトアニア語、マルタ語、ポーランド語、ポルトガル語、ルーマニア語、スロバキア語、スロベニア語、スペイン語、スウェーデン語、アラビア語、カタロニア語、中国語、ガリシア語、ヒンディー語、日本語、韓国語、ノルウェー語、ロシア語、トルコ語、ウクライナ語。
- インストラクション・チューニング情報
モデルは、ウェブデータ、並列データ、ウィキペディア、Arxiv、複数の書籍、アポロデータセットからサポートされている自然言語全体で4兆トークンに対して学習される。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
flan-t5-xl-3b
flan-t5-xl-3b モデルは、 Google が Hugging Face で提供しています。 このモデルは、事前に学習されたテキストからテキストへの転送トランフォーマー ( T5 )モデルに基づいており、より良い zero- と few-shot パフォーマンスを達成するために命令のファイン・チューニング方法を使用しています。 モデルはまた、推論タスクを実行する能力を向上させるために、思考の連鎖データを使って微調整される。
- 使用法
- zero-または「few-shotプロンプトでの一般的な使用。
- size
- 30億パラメータ
- API価格ティア
- クラス 1. 価格の詳細は表 3と表5を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
- サンプル・プロンプト
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- マルチリンガル
- インストラクション・チューニング情報
- このモデルは、従来の自然言語処理タスクに加えて、思考の連鎖データから多段階の推論を行うタスクで微調整された。 使用したトレーニングデータセットの詳細は公表されている。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
flan-t5-xxl-11b
flan-t5-xxl-11b モデルは、 Google が Hugging Face で提供しています。 このモデルは、事前に学習されたテキストからテキストへの転送変換器T5モデルに基づいており、より優れた「zero-」と「few-shot性能を達成するために命令の微調整方法を使用している。 モデルはまた、推論タスクを実行する能力を向上させるために、思考の連鎖データを使って微調整される。
- 使用法
- zero-または「few-shotプロンプトでの一般的な使用。
- size
- 110億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表 3と表5を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
非推奨 - 専用にオンデマンドで展開。
非推奨
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- 英語、ドイツ語、フランス語
- インストラクション・チューニング情報
- このモデルは、従来の自然言語処理タスクに加えて、思考の連鎖データから多段階の推論を行うタスクで微調整された。 使用したトレーニングデータセットの詳細は公表されている。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
flan-ul2-20b
flan-ul2-20b モデルは、 Google が Hugging Face で提供しています。 このモデルはUnifying Language Learning ParadigmsUL2)を用いて学習された。 このモデルは、言語生成、言語理解、テキスト分類、質問応答、常識的推論、長文推論、構造化知識接地、情報検索、文脈内学習、「zero-shotプロンプト、ワンショットプロンプトに最適化されている。
- 使用法
- zero-または「few-shotプロンプトでの一般的な使用。
- size
- 200億パラメータ
- API価格ティア
- クラス 3. 価格の詳細は表 3と表5を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
非推奨 - 専用にオンデマンドで展開。
非推奨
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- サンプルを使って実験する:
- サンプル・プロンプト
- サンプルプロンプト決算説明会の要約
- サンプルプロンプト会議記録の要約
- サンプルプロンプトシナリオの分類
- サンプルプロンプト感情分類
- サンプルプロンプトお礼状作成
- サンプルプロンプト名前付きエンティティ抽出
- サンプルプロンプト事実の抽出
- サンプルノートwatsonxてサイバーセキュリティに関する文書を要約する
- サンプルノートブックwatsonxと LangChainを使い、検索支援生成(RAG)を使って質問に答える
- サンプルノートブックwatsonx、Elasticsearch、LangChainて質問に答える(RAG)
- サンプルノートブックwatsonx「Elasticsearch「Pythonライブラリを使用して質問に答える(RAG)
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- 英語
- インストラクション・チューニング情報
- flan-ul2-20bモデルは、Common Crawlの膨大でクリーンなウェブクロールコーパスで事前学習される。 このモデルは、様々な自然言語処理タスクに最適化するために、複数の事前学習目標によって微調整される。 使用したトレーニングデータセットの詳細は公表されている。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
jais-13b-chat
jais-13b-chat 基盤モデル、会話タスクをサポートするためにファイン・チューニングアラビア語と英語のバイリンガル大規模言語モデルである。
- 使用法
- アラビア語のQ&A、要約、分類、生成、抽出、翻訳をサポート。
- size
- 130億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表3を参照。
- 使用可能
- フランクフルト・データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- サンプルプロンプトアラビア語チャット
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):2,048
- 対応自然言語
- アラビア語(現代標準アラビア語)、英語
- インストラクション・チューニング情報
- Jais-13b-chat これは、1,160億のアラビア語トークンと2,790億の英語トークンで学習された基盤モデルである。 Jais-13b Jais-13b-chat 400万のアラビア語と600万の英語の即答対話型ペアの厳選されたセットで微調整されています。
- モデル・アーキテクチャ
- デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
ラマ 4 インストラクターモデル
Llama 4は、 Meta によって提供される基盤モデルコレクションです。 llama-4-maverick-17b-128e-instruct-fp8、 llama-4-scout-17b-16e-instruct モデルはマルチモーダルモデルで、テキストと画像の理解において最適化されたクラス最高のパフォーマンスを実現するために、専門家混合( MoE )アーキテクチャを採用している。
Llama 4 Maverickモデルは、128のエキスパートを持つ170億アクティブパラメータ・マルチモーダルモデルである。 ラマ4スカウトモデルは、16人のエキスパートを持つ170億アクティブパラメーター・マルチモーダルモデルである。
- 使用法
- チャットボットのように多言語のダイアログ出力を生成し、視覚認識、画像推論、キャプション付け、画像に関する一般的な質問への回答に最適化された、モデル固有のプロンプト形式を使用します。
- size
- 170億パラメータ
- API価格ティア
- llama-4-maverick-17b-128e-instruct-fp8: 価格の詳細は表3を参照。
- llama-4-scout-17b-16e-instruct: このモデルはプレビューモデルとして無料でご利用いただけます。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
llama-4-scout-17b-16e-instruct の IBM デプロイメント非推奨。 詳細については、Foundationモデルのライフサイクルを参照してください。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。
- 対応自然言語
アラビア語、英語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語。
- インストラクション・チューニング情報
Llama 4は、より広範な200の言語コレクションで事前学習された。 MetaLlama 4 Scoutモデルは約40兆トークンに対して、Llama 4 Maverickモデルは約22兆トークンのマルチモーダルデータに対して事前にトレーニングされた。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3.3 70B Instruct
Meta Llama 3.3多言語大規模言語モデル(LLM)は、700億のパラメータを持つ事前学習および命令チューニングされた生成モデル(テキストイン/テキストアウト)です。
llama-3-3-70b-instruct は、好評の Llama 3.1 70B インストラクター 基盤モデル改訂版である。 Llama 3.3の基盤モデル、コーディング、ステップバイステップの推論、ツールの呼び出しに優れている。 Llama 3.3モデルは小型ながら、 Llama 3.1 405b モデルと同等の性能を発揮するため、開発者にとって最適な選択肢となります。
- 使用法
チャットボットのように多言語のダイアログ出力を生成します。 モデル固有のプロンプト形式を使用。
- size
700億パラメータ
- API価格ティア
第13類
価格の詳細は表3を参照。
- 使用可能
モデルの量子化バージョンは、マルチテナント・ハードウェア上に配置された IBMによって提供されている。
このモデルには2つのバージョンがあり、オンデマンドで専用に使用することができる:
- llama-3-3-70b-instruct-hf: オリジナルバージョンは でメタによって公開された。 Hugging Face
- llama-3-3-70b-instruct: 4GPUではなく2GPUで展開できる量子化バージョン。
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- インストラクション・チューニング情報
Llama 3.3は、一般に公開されているソースからの15兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、2500万以上の合成生成例が含まれる。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3.2 Instruct
基盤モデル Llama 3.2 コレクションは Meta によって提供されている。 llama-3-2-1b-instruct、 llama-3-2-3b-instruct モデルは、モバイル機器に収まる最小の Llama 3.2モデルである。 このモデルは軽量でテキストのみのモデルであり、高度にパーソナライズされたオンデバイス・エージェントの構築に使用できる。
たとえば、最近受け取った10通のメッセージを要約したり、来月のスケジュールを要約したりするよう、モデルに頼むことができる。
- 使用法
チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用する。 Llama 3.2インストラクター・モデルは、サイズが小さく、必要な計算リソースとメモリが控えめであるため、モバイルやその他のエッジ・デバイスを含むほとんどのハードウェア上でローカルに実行することができる。
- サイズ
- 10億パラメータ
- 30億パラメータ
- API価格ティア
- 1b:クラスC1
- 3b:クラス8
価格の詳細は表3を参照。
価格の詳細については、ジェネレーティブAIアセットの課金詳細をご覧ください。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 1b:131,072
- 3b:131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- インストラクション・チューニング情報
一般に公開されているソースからの最大9兆トークンのデータで事前学習。 Llama 3.18Bおよび70Bモデルからのロジットは、モデル開発の事前トレーニング段階に組み込まれ、これらの大規模モデルからの出力(ロジット)がトークン・レベルのターゲットとして使用された。 ポストトレーニングでは、教師ありファインチューニング(SFT)、リジェクションサンプリング(RS)、直接選好最適化(DPO)を用いて、事前学習したモデルの位置合わせを行う。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3.2 Vision Instruct
Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-3-2-11b-vision-instructと llama-3-2-90b-vision-instructモデルは、文書レベルの理解、チャートやグラフの解釈、画像のキャプションのような画像イン、テキストアウトのユースケースのために構築されています。
- 使用法
チャットボットのようなダイアログ出力を生成し、分類、オブジェクト検出と識別、画像からテキストへの転写(手書きを含む)、文脈に応じたQ&A、データ抽出と処理、画像比較、個人的な視覚支援を含むコンピュータ・ビジョン・タスクを実行できる。 モデル固有のプロンプト形式を使用。
- サイズ
- 110億パラメータ
- 900億パラメータ
- API価格ティア
- 11b:クラス9
- 90b:クラス10
価格の詳細は表3を参照。
11b モデルをオンデマンドで展開する場合の価格詳細は、 表5を参照。
- 使用可能
- 11b および マルチテナント・ハードウェア上に配置された によって提供される。 90b: IBM
- 11b モデルのみ:専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 11b:131,072
- 90b:131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。 モデルに提出した画像に対してカウントされるトークンは、コンテキストウィンドウの長さには含まれません。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語はテキスト入力のみ。 画像が入力に含まれている場合のみ英語。
- インストラクション・チューニング情報
Llama 3.2 Visionモデルは、コアとなる大規模言語モデルの重みとは別に学習された画像推論アダプターの重みを使用する。 この分離はモデルの一般的な知識を保持し、事前学習時と実行時の両方でモデルをより効率的にする。 Llama 3.2 Vision のモデルは、60億の画像とテキストのペアで事前学習され、 Llama 3.1 70B の基盤モデル事前学習するのに必要な計算リソースよりもはるかに少なくてすんだ。 Llama 3.2モデルも、入力が必要な場合にのみ画像推論用の計算リソースをより多く利用できるため、効率的に動作します。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
llama-guard-3-11b-vision
Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-guard-3-11b-visionは、テキストのみのLlama-Guard-3モデルをマルチモーダルに進化させたものである。 このモデルは、ユーザー入力(プロンプト分類)に含まれる画像やテキストコンテンツを安全か安全でないかの分類に使用できる。
- 使用法
モデルを使用して、画像からテキストへのプロンプトで画像とテキストの安全性をチェックする。
- size
- 110億パラメータ
- API価格ティア
クラス 9. 価格の詳細は表3を参照。
- 使用可能
マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。 モデルに提出した画像に対してカウントされるトークンは、コンテキストウィンドウの長さには含まれません。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語はテキスト入力のみ。 画像が入力に含まれている場合のみ英語。
- インストラクション・チューニング情報
コンテンツの安全性分類のために微調整された事前学習済みモデル。 安全でないと分類されるコンテンツの種類については、モデルカードを参照してください。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3 1ベース
Meta Llama 3.1の基礎モデルのコレクションは'Metaによって提供される。 Llama 3.1の基盤モデルである llama-3-1-8b と llama-3-1-70b は、ツールの使用をサポートする多言語モデルであり、全体的に推論機能が強化されている。
- 使用法
- 長文テキストの要約や、多言語会話エージェントやコーディングアシスタントに使用できます。
- サイズ
- 80億パラメータ
- 700億パラメータ
- API価格ティア
- 価格の詳細は表5を参照。
- 使用可能
- 専用にオンデマンドで展開。
- 試してみる
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):
- 8b: 131,072
- 70b: 131,072
- 対応自然言語
- 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- モデル・アーキテクチャ
- デコーダのみ
- 使用許諾条件
- 詳細情報
- 以下の資料をお読みください:
Llama 3.1 Instruct
Meta Llama 3.1の基礎モデルのコレクションは'Metaによって提供される。 Llama 3.1の基礎モデルは、多言語対話のユースケースに最適化された、事前学習とインストラクションチューニングが施されたテキストのみの生成モデルです。 このモデルは、人間のフィードバックによる教師ありの微調整と強化学習を使って、人間の「親切」と「安全」の嗜好に合わせる。
llama-3-405b-instruct モデルは、 Meta'これまでで最大のオープンソース基盤モデルである。 基盤モデル、合成データ生成器、学習後のデータランキング判定器、またはより推論に適した派生モデルの専門能力を向上させるモデル教師/監督者としても使用できます。
- 使用法
チャットボットのようなダイアログ出力を生成する。 モデル固有のプロンプト形式を使用。
- サイズ
- 80億パラメータ
- 700億パラメータ
- 4050億パラメータ
- API価格ティア
- 8b:クラス1
- 70b:クラス2
- 405b:クラス3(入力)、クラス7(出力)
マルチテナントデプロイメント価格詳細については、 表3を参照してください。
デプロイ・オン・デマンド・モデルの価格詳細については、 表5を参照のこと。
- 使用可能
- 405b: IBM がマルチテナントハードウェア上に展開して提供。
- 8b 70b のみ:専用利用の場合はオンデマンドで展開。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
8b: 131,072
70b: 131,072
405b:16,384
- モデルは131,072のコンテキストウィンドウ長をサポートしているが、モデルがレスポンスを生成する時間を短縮するため、ウィンドウは16,384に制限されている。
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は4,096個に制限されている。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- インストラクション・チューニング情報
Llama 3.1は、一般に公開されているソースからの15兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、2500万以上の合成生成例が含まれる。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3 Instruct
Meta Llama 3 ファミリーの基盤モデル、 Meta Llama 3 で構築され、 Meta Hugging Face で提供される、アクセス可能でオープンな大規模言語モデルです。 Llama 3の基礎モデルは、様々なユースケースをサポートできるように細かく調整された言語モデルです。
- 使用法
チャットボットのようなダイアログ出力を生成する。
- サイズ
- 80億パラメータ
- 700億パラメータ
- API価格ティア
- 8b:クラス1
- 70b:クラス2
- 使用可能
- IBM がマルチテナントハードウェア上に展開(シドニーリージョンのみで 70b )。
非推奨 - 専用にオンデマンドで展開。
- IBM がマルチテナントハードウェア上に展開(シドニーリージョンのみで 70b )。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 8b:8,192
- 70b:8,192
注:新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの最大数は、4,096個に制限されています。
- 対応自然言語
英語
- インストラクション・チューニング情報
Llama 3 誤判定率を減らし、アライメントを改善し、 基盤モデル出力の多様性を増加させる、事後トレーニング手順の改善を特徴とする。 その結果、推論能力、コード生成能力、命令追従能力が向上した。 Llama 3 より多くのトレーニングトークン( )があり、その結果、言語理解力が向上します。 15T
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 2 Chat
Llama 2 Chat モデルは、 Meta より Hugging Face にて提供されています。 微調整されたモデルはチャット生成に役立つ。 モデルは、一般に公開されているオンラインデータを使って事前に学習され、人間のフィードバックから強化学習を使って微調整される。
130億パラメータまたは700億パラメータバージョンのモデルを使用することができます。
- 使用法
チャットボットのようなダイアログ出力を生成する。 モデル固有のプロンプト形式を使用。
- size
- 130億パラメータ
- 700億パラメータ
- API価格ティア
- 使用可能
- 13b
- マルチテナント・ハードウェア上に配置された IBMが提供
- 専用にオンデマンドで展開
- 70b
- 専用にオンデマンドで展開
IBM -provided デプロイメント of this 基盤モデル is deprecated. 基盤モデルライフサイクル を参照してください。
- 13b
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 13b:4,096
- 70b:4,096
- 対応自然言語
英語
- インストラクション・チューニング情報
Llama 2は、一般に公開されているソースからの2兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、人間が注釈をつけた100万以上の新しい例が含まれている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
mistral-large
Mistral Large 2 Mistral AI によって開発された大規模言語モデルのファミリーです。 mistral-large 基盤モデル、英語、フランス語、スペイン語、ドイツ語、イタリア語の文法と文化的背景を理解し、流暢である。 基盤モデル、他の何十もの言語も理解することができる。 このモデルには大きなコンテキスト・ウィンドウがあり、 検索拡張生成 (RAG)のユースケースで送信するプロンプトに、大きな文書をコンテキスト情報として追加することができる。 mistral-large 基盤モデル、コードの生成、レビュー、コメント、関数の呼び出しなど、プログラム的なタスクに効果的で、JSON形式で結果を生成できる。
さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。
- 使用法
テキスト理解、変換、コード生成などの複雑な多言語推論タスクに適しています。 モデルのコンテキストウィンドウが大きいため、プロンプトを表示する際には、max tokensパラメータを使ってトークンの上限を指定してください。
- API価格ティア
Mistral Large モデルの推論価格には、乗数による割り当ては適用されません。 以下の特別価格帯が使用されます
- 入力階層Mistral Large
- 出力レベルMistral Large
価格の詳細は表3を参照。 このモデルをオンデマンドで展開する際の価格の詳細については 、表5 を参照してください。
ご注意: This foundation model has an additional access fee that is applied per hour of use.- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供
- 専用にオンデマンドで展開
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語、その他多数の言語。
- サポートされるプログラミング言語
mistral-largeモデルは、Python、Java、C、C++、JavaScript,Bash、Swift、Fortranを含む80以上のプログラミング言語で学習されている。
- インストラクション・チューニング情報
mistral-large の基盤モデル、様々なドメインからのテキスト、コードベース、数学データなどの多様なデータセットで事前に訓練されている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
mistral-large-instruct-2411
Mistral AI の mistral-large-instruct-2411 基盤モデル、 Mistral Large 2 ファミリーに属する。 このモデルは、推論、知識、コーディングに特化しています。 このモデルは、 Mistral-Large-Instruct-2407 基盤モデル機能を拡張し、長いプロンプトコンテキスト、システムプロンプト命令、および関数呼び出し要求の優れた処理を含む。
- 使用法
mistral-large-instruct-2411 基盤モデル、多言語に対応し、コーディングに習熟し、エージェント中心であり、 検索拡張生成タスクや、大きな文脈を持つプロンプトを処理する必要があるその他のユースケースを支援するために、システムのプロンプトに従う。
- size
123億のパラメータ
- API価格ティア
価格の詳細は表5を参照。
ご注意: This foundation model has an additional access fee that is applied per hour of use.- 使用可能
専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
複数の言語に対応し、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語に強い。
- サポートされるプログラミング言語
mistral-large-instruct-2411 基盤モデル、 Python、Java、C、C++、 JavaScript, Bash、Swift、 Fortran を含む80以上のプログラミング言語で学習されている。
- インストラクション・チューニング情報
mistral-large-instruct-2411 基盤モデル、 Mistral AI の Mistral-Large-Instruct-2407 基盤モデル拡張したものである。 トレーニングにより、モデルの推論能力が向上した。 また、モデルをより慎重かつ的確な反応ができるように微調整し、解決策を見つけられない場合や、確信を持って回答できるだけの十分な情報がない場合を認識できるようにすることで、 ハルシネーションを減らすことにも重点的に取り組みました。
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
mistral-medium-2505
Mistral medium 3 は、 Mistral AI によって開発された媒体言語モデルのファミリーです。 mistral-medium-2505 基盤モデル、多くの言語の文法や文化的背景を理解し、流暢に話すことができる。 このモデルには大きなコンテキスト・ウィンドウがあり、 検索拡張生成 (RAG)のユースケースで送信するプロンプトに、大きな文書をコンテキスト情報として追加することができる。 mistral-medium-2505 基盤モデル視覚的入力を処理でき、プログラミング、ツール呼び出し、数学的推論、文書理解、対話に効果的である。
- 使用法
複雑な多言語推論タスク、長い文書理解、コード生成、関数呼び出し、エージェント型ワークフローに適しています。
- API価格ティア
価格の詳細は表3を参照。
提供されたミストラル・ミディアムモデルを推論するための価格は、乗数によって割り当てられるものではない。 以下の特別価格帯が使用されます
- 入力階層Mistral Large
- 出力レベルMistral Large
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。
- 対応自然言語
アラビア語、ペルシャ語、ウルドゥー語、ヘブライ語、トルコ語、インドネシア語、ラオス語、マリシアン語、タイ語、タガログ語、ベトナム語、ヒンディー語、ベンガル語、グジャラート語、カンナダ語、マラーティー語、ネパール語、パンジャブ語、タミル語、テルグ語、ブルトン語、カタロニア語、チェコ語、デンマーク語、ギリシャ語、フィンランド語、クロアチア語、オランダ語、ノルウェー語、ポーランド語、ルーマニア語、スウェーデン語、セルビア語、ウクライナ語、フランス語、ドイツ語、スペイン語、ポルトガル語、イタリア語、日本語、韓国語、ロシア語、中国語。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
mistral-nemo-instruct-2407
Mistral AI の mistral-nemo-instruct-2407 基盤モデル、 NVIDIA との共同作業で構築された。 Mistral NeMo、推論、世界知識、コーディングの正確さにおいて、特にこのサイズのモデルとしては非常に優れた結果を出している。
- 使用法
- Mistral NeMoモデルは多言語で、関数呼び出しについて学習される。
- size
- 120億パラメータ
- API価格ティア
- 価格の詳細は表5を参照。
- 使用可能
- 専用にオンデマンドで展開。
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
- 複数の言語に対応し、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語に強い。
- サポートされるプログラミング言語
- Mistral NeMoモデルは、いくつかのプログラミング言語で学習されている。
- インストラクション・チューニング情報
- Mistral NeMo高度な微調整とアライメントの段階を経た。
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
mistral-small-3-1-24b-instruct-2503
Mistral Small 3.1 の基盤モデル、 Mistral AI によって開発された Mistral Small 3 を基に構築されており、テキスト性能を損なうことなく、視覚理解と長いコンテキスト機能を強化しています。 mistral-small-3-1-24b-instruct-2503、テキストパフォーマンス、指示フォロー、会話アシスト、画像理解、マルチモーダル理解、高度な推論がファイン・チューニングいる。 エージェンシーアプリケーションをサポートするように構築されており、システムプロンプトへの準拠と、JSON出力生成機能付きのコール機能を備えています。
さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。
- 使用法
会話エージェントや機能呼び出しに最適です。
- API価格ティア
価格の詳細については、 表3 および
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
注。
- 最大新規トークン、つまり、リクエストごとに基盤モデルによって生成されるトークンは、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、ギリシャ語、ヒンディー語、インドネシア語、イタリア語、日本語、韓国語、マレー語、ネパール語、ポーランド語、ポルトガル語、ルーマニア語、ロシア語、セルビア語、スペイン語、スウェーデン語、トルコ語、ウクライナ語、ベトナム語、アラビア語、ベンガル語、中国語、ペルシャ語、その他多数の言語。
- サポートされるプログラミング言語
mistral-small-3-1-24b-instruct-2503 モデルは、 Python、Java、C、C++、 JavaScript, Bash、Swift、 Fortran を含む80以上のプログラミング言語で学習されている。
- インストラクション・チューニング情報
mistral-small-3-1-24b-instruct-2503 の基盤モデル、様々なドメインからのテキスト、コードベース、数学データなどの多様なデータセットで事前に訓練されている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
mistral-small-24b-instruct-2501
ミストラル・スモール3は、 Mistral AI によって開発された、コスト効率が高く、高速で、信頼性の高い基盤モデルである。 mistral-small-24b-instruct-2501 モデルは、 ファイン・チューニング命令であり、データ抽出、文書の要約、説明文の作成など、ある程度の推論能力を必要とするタスクで優れた性能を発揮する。 エージェンシーアプリケーションをサポートするように構築されており、システムプロンプトへの準拠と、JSON出力生成機能付きのコール機能を備えています。
さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。
- 使用法
会話エージェントや機能呼び出しに最適です。
- API価格ティア
第9類
価格の詳細は表3を参照。
- 使用可能
IBM が提供するサービスは、フランクフルトリージョン内のマルチテナントハードウェアにのみ展開されています。
IBM -provided デプロイメント of this 基盤モデル is deprecated. 基盤モデルライフサイクル を参照してください。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):32,768
注。
- 最大新規トークン、つまり、リクエストごとに基盤モデルによって生成されるトークンは、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語、その他多数の言語。
- サポートされるプログラミング言語
mistral-small-24b-instruct-2501 モデルは、 Python、Java、C、C++、 JavaScript,、Bash、Swift、 Fortran を含む80以上のプログラミング言語でトレーニングされています。
- インストラクション・チューニング情報
mistral-small-24b-instruct-2501 の基盤モデル、様々なドメインからのテキスト、コードベース、数学データなどの多様なデータセットで事前に訓練されている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
mixtral-8x7b-base
mixtral-8x7b-base 基盤モデル Mistral AI によって提供されている。 The mixtral-8x7b-base foundation model is a generative sparse mixture-of-experts network that groups the model parameters, and then for each token chooses a subset of groups (referred to as 専門家) to process the token. その結果、各トークンは470億のパラメーターにアクセスできるが、推論に使用するアクティブパラメーターは130億にとどまり、コストとレイテンシーが削減される。
- 使用法
分類、要約、生成、コード作成と変換、言語翻訳など、多くのタスクに適しています。
- size
46.46.7億パラメータ
- API価格ティア
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):32,768
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
mixtral-8x7b-instruct-v01
mixtral-8x7b-instruct-v01 基盤モデル Mistral AI によって提供されている。 The mixtral-8x7b-instruct-v01 foundation model is a pretrained generative sparse mixture-of-experts network that groups the model parameters, and then for each token chooses a subset of groups (referred to as 専門家) to process the token. その結果、各トークンは470億のパラメーターにアクセスできるが、推論に使用するアクティブパラメーターは130億にとどまり、コストとレイテンシーが削減される。
- 使用法
- 分類、要約、生成、コード作成と変換、言語翻訳など、多くのタスクに適しています。 モデルのコンテキストウィンドウが異常に大きいため、モデルにプロンプトを出す際には、max tokensパラメータを使ってトークンの上限を指定してください。
- size
- 46.46.7億パラメータ
- API価格ティア
- クラス 1. 価格の詳細は表3を参照。
IBM -provided デプロイメント of this 基盤モデル is deprecated. 基盤モデルライフサイクル を参照してください。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):32,768
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語
- インストラクション・チューニング情報
Mixtral 基盤モデルはインターネットデータで事前学習済みです。 Mixtral 8x7B Instruction 基盤モデルは、指示に従うように微調整されています。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
mt0-xxl-13b
mt0-xxl-13b モデルは、 BigScience が Hugging Face で提供しています。 このモデルは、英語、英語以外の言語、多言語プロンプトを使用した言語生成および翻訳タスクをサポートするように最適化されている。
使用法:zero-または「few-shotプロンプトでの一般的な使用。 翻訳タスクの場合、翻訳してほしいテキストの終わりを示すピリオドを入れてください。
- size
- 130億パラメータ
- API価格ティア
- 価格の詳細は表5を参照。
- 使用可能
- 専用にオンデマンドで展開。
- 試してみる
- 以下のサンプルで実験してみよう:
- 対応自然言語
- マルチリンガル
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- モデルは108言語の多言語データで事前学習され、46言語の多言語データで微調整され、多言語タスクを実行する。
- インストラクション・チューニング情報
- BigScienceはそのコードとデータセットの詳細を公表している。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
pixtral-12b
Pixtral 12B は、 Mistral AI によって開発されたマルチモーダルモデルです。 pixtral-12b 基盤モデル、自然画像と文書の両方を理解するように訓練されており、自然な解像度と縦横比で画像を取り込むことができるため、画像処理に使用するトークンの数に柔軟性がある。 基盤モデル、長い文脈ウィンドウで複数のイメージをサポートします。 このモデルは、イメージ・イン、テキスト・アウトのマルチモーダルなタスクに効果的で、インストラクション・フォローに優れている。
- 使用法
- 図表の理解、文書に関する質問への回答、マルチモーダル推論、および指示に従うこと。
- size
- 120億パラメータ
- API価格ティア
- クラス 9. 価格の詳細は表3を参照。
使用可能
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):128,000
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。
- 対応自然言語
英語
- インストラクション・チューニング情報
pixtral-12bモデルは、インターリーブされた画像とテキストデータで学習され、ゼロから学習された4億パラメータのビジョンエンコーダを持つMistral Nemoモデルをベースにしている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
poro-34b-chat
Poro 34b チャットはチャットのユースケースをサポートするように設計されており、フィンランド語と英語の両方で指示に従うためのトレーニングが用意されています。 PoroはSilo AIが TurkuNLP、High Performance Language Technologies(HPLT)と共同で開発した。
- 使用法
チャットボットのようにダイアログ出力を生成するためにモデルを使用します。
- size
340億パラメータ
- API価格ティア
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):2,048
- 対応自然言語
英語、フィンランド語
- インストラクション・チューニング情報
Poro-34b-Chat 英語とフィンランド語の両方の指示に従うデータセットを使用して、基本 Poro-34b モデルの教師ありファイン・チューニング (SFT) を通じて開発されました。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
詳細情報
親トピック: サポートされる基盤モデル