IBM watsonx.aiでは、オープンソースとIBMの基礎モデルのコレクションが利用できる。 基礎モデルの推論は、Prompt Labまたはプログラムで行うことができます。
watsonx.ai:では以下のモデルが利用可能です:
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-7b-lab
- granite-8b-japanese
- granite-20b-multilingual
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-3-8b-base
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- granite-34b-code-instruct
- allam-1-13b-instruct
- codellama-34b-instruct
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- jais-13b-chat
- llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision
- llama-3-1-8b
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-2-13b-chat
- llama-2-70b-chat
- mistral-large
- mistral-nemo-instruct-2407
- mixtral-8x7b-base
- mixtral-8x7b-instruct-v01
- mt0-xxl-13b
- pixtral-12b
これらのモデルのさまざまな展開方法について、またモデルの価格とコンテクスト・ウィンドウの長さに関する情報の概要については、サポートされている財団モデルをご覧ください。
モデルの選び方
サポートされているタスクや言語など、モデル選びに役立つ要素を確認するには、 モデルの選択と Foundationモデルのベンチマークを参照してください。
基礎モデルの詳細
使用可能な基盤モデルは、自然言語とプログラミング言語の両方のユース・ケースをサポートします。 これらのモデルができるタスクの種類を確認するには、プロンプトのサンプルを確認し、試してみてください。
allam-1-13b-instruct
allam-1-13b-instruct foundation modelは、国立人工知能センターが提供し、サウジアラビアのデータ・人工知能庁が支援するアラビア語と英語のバイリンガル大規模言語モデルで、会話タスクをサポートするように微調整されている。 ALLaMシリーズは、アラビア語の言語技術を進歩させるために設計された、強力な言語モデルのコレクションです。 これらのモデルはLlama-2の重みで初期化され、アラビア語と英語の両方で学習される。
- 使用法
- アラビア語のQ&A、要約、分類、生成、抽出、翻訳をサポート。
- size
- 130億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表3を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- アラビア語(現代標準アラビア語)、英語
- インストラクション・チューニング情報
- allam-1-13b-instructは Allam-13b-baseモデルに基づいており、これは英語とアラビア語の合計3兆個のトークンで事前に訓練されたfoundation modelである。 アラビア語データセットには、クリーニングと重複排除を行った後のトークンが5,000億個含まれている。 追加データは、オープンソースのコレクションとウェブクロールから収集される。 allam-1-13b-instructの foundation modelは、400万組のアラビア語と600万組の英語のプロンプトとレスポンスのペアのキュレーションセットで微調整されている。
- モデル・アーキテクチャ
- デコーダのみ
- 使用許諾条件
- Llama 2コミュニティライセンスと ALLaMライセンス
- 詳細はこちら
- 以下の資料をお読みください:
codellama-34b-instruct
MetaのLlama 2に基づくプログラムコード生成モデル。 Code Llamaは、コードを生成し、議論するために微調整されている。
- 使用法
- Code Llamaて、自然言語入力に基づいてコードを生成したり、コードを説明したり、コードを完成させてデバッグしたりするプロンプトを作成しましょう。
- size
- 340億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表3を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):16,384
- 注:新しいトークン、つまりリクエストごとにfoundation modelによって生成されるトークンの上限は、8,192個に制限されています。
- 対応自然言語
- 英語
- サポートされるプログラミング言語
- codellama-34b-instruct-hf foundation modelは、Python、C++、Java、PHP、Typescript(Javascript)、C#、Bashなど、多くのプログラミング言語をサポートしています。
- インストラクション・チューニング情報
- インストラクション微調整版には、自然言語によるインストラクション入力と期待される出力が与えられ、自然言語で有用かつ安全な回答を生成するようモデルを導いた。
- モデル・アーキテクチャ
- デコーダー
- 使用許諾条件
- 使用許諾条件
- 詳細はこちら
- 以下の資料をお読みください:
elyza-japanese-llama-2-7b-instruct
elyza-elyza-japanese-llama-2-7b-instruct-llama-2-7b-instructモデルは、ELYZA, Inc.がHugging Face上で提供しています。 elyza-japanese-llama-2-elyza-japanese-llama-2-7b-instructb-instructfoundation modelは、「Meta」のLlama 2モデルのバージョンで、日本語テキストを理解し、生成するように訓練されている。 このモデルは、ユーザーの指示に従う様々なタスクを解決したり、対話に参加したりするために微調整されている。
- 使用法
- zero-または「few-shotプロンプトでの一般的な使用。 日本語の分類と抽出、英語と日本語の翻訳に効果的。 日本語でプロンプトが表示されたときに最高のパフォーマンスを発揮する。
- size
- 70億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表3を参照。
- 使用可能
- 東京データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- 日本語、英語
- インストラクション・チューニング情報
- 日本語の学習には、WikipediaやOpen Super-large CrawledALMAnaCH coRpusCrawlコーパスの言語を分類・フィルタリングして生成された多言語コーパス)など、多くのソースからの日本語テキストが使用された。 モデルはELYZAが作成したデータセットで微調整された。 ELYZAタスク100データセットには、手作業で作成され、人間によって評価された100の多様で複雑なタスクが含まれている。 ELYZAタスク100データセットは、HuggingFaceから公開されている。
- モデル・アーキテクチャ
- デコーダー
- 使用許諾条件
- 使用許諾条件
- 詳細はこちら
- 以下の資料をお読みください:
flan-t5-xl-3b
flan-t5-xl-3bのモデルはGoogleが Hugging Faceで提供している。 このモデルは、事前に学習されたテキストからテキストへの転送変換器T5モデルに基づいており、より優れた「zero-」と「few-shot性能を達成するために命令の微調整方法を使用している。 モデルはまた、推論タスクを実行する能力を向上させるために、思考の連鎖データを使って微調整される。
- 使用法
- zero-または「few-shotプロンプトでの一般的な使用。
- size
- 30億パラメータ
- API価格ティア
- クラス 1. 価格の詳細は表 3と表5を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
- サンプル・プロンプト
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- マルチリンガル
- インストラクション・チューニング情報
- このモデルは、従来の自然言語処理タスクに加えて、思考の連鎖データから多段階の推論を行うタスクで微調整された。 使用したトレーニングデータセットの詳細は公表されている。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細はこちら
- 以下の資料をお読みください:
flan-t5-xxl-11b
flan-t5-xxl-11bモデルはGoogleが Hugging Faceで提供している。 このモデルは、事前に学習されたテキストからテキストへの転送変換器T5モデルに基づいており、より優れた「zero-」と「few-shot性能を達成するために命令の微調整方法を使用している。 モデルはまた、推論タスクを実行する能力を向上させるために、思考の連鎖データを使って微調整される。
- 使用法
- zero-または「few-shotプロンプトでの一般的な使用。
- size
- 110億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表 3と表5を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- 英語、ドイツ語、フランス語
- インストラクション・チューニング情報
- このモデルは、従来の自然言語処理タスクに加えて、思考の連鎖データから多段階の推論を行うタスクで微調整された。 使用したトレーニングデータセットの詳細は公表されている。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細はこちら
- 以下の資料をお読みください:
flan-ul2-20b
flan-ul2-20bのモデルは、Googleが Hugging Faceで提供している。 このモデルはUnifying Language Learning ParadigmsUL2)を用いて学習された。 このモデルは、言語生成、言語理解、テキスト分類、質問応答、常識的推論、長文推論、構造化知識接地、情報検索、文脈内学習、「zero-shotプロンプト、ワンショットプロンプトに最適化されている。
- 使用法
- zero-または「few-shotプロンプトでの一般的な使用。
- size
- 200億パラメータ
- API価格ティア
- クラス 3. 価格の詳細は表 3と表5を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
- サンプルを使って実験する:
- サンプル・プロンプト
- サンプルプロンプト決算説明会の要約
- サンプルプロンプト会議記録の要約
- サンプルプロンプトシナリオの分類
- サンプルプロンプト感情分類
- サンプルプロンプトお礼状作成
- サンプルプロンプト名前付きエンティティ抽出
- サンプルプロンプト事実の抽出
- サンプルノートwatsonxてサイバーセキュリティに関する文書を要約する
- サンプルノートブックwatsonxと LangChainを使い、検索支援生成(RAG)を使って質問に答える
- サンプルノートブックwatsonx、Elasticsearch、LangChainて質問に答える(RAG)
- サンプルノートブックwatsonx「Elasticsearch「Pythonライブラリを使用して質問に答える(RAG)
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- 英語
- インストラクション・チューニング情報
- flan-ul2-20bモデルは、Common Crawlの膨大でクリーンなウェブクロールコーパスで事前学習される。 このモデルは、様々な自然言語処理タスクに最適化するために、複数の事前学習目標によって微調整される。 使用したトレーニングデータセットの詳細は公表されている。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細はこちら
- 以下の資料をお読みください:
granite-13b-chat-v2
granite-13b-chat-v2モデルはIBMが提供している。 このモデルはダイアログのユースケースに最適化されており、バーチャルエージェントやチャットアプリケーションとの相性が良い。
使い方:チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用。 簡潔な答えを生成するための停止シーケンスとして使用できるキーワードを出力に含む。 使い方のヒントについては、プロンプトのガイドラインに従ってください。 詳細は granite-13b-chat-v2のプロンプトを参照。
- size
130億パラメータ
- API価格ティア
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):8,192
- 対応自然言語
英語
- インストラクション・チューニング情報
Graniteのモデルファミリーは、インターネット、学術、コード、法律、金融の5つのドメインから、企業に関連するデータセットで学習される。 モデルの学習に使用されるデータは、まずIBMのデータガバナンスレビューを受け、IBMHAPフィルターによって、憎悪、虐待、冒涜のフラグが付いたテキストがフィルタリングされる。 IBMは、使用したトレーニング方法とデータセットに関する情報を共有している。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
granite-13b-instruct-v2
granite-13b-instruct-v2モデルはIBMから提供されている。 このモデルは、高品質の金融データで学習され、金融タスクでトップクラスのパフォーマンスを発揮するモデルである。 評価される金融関連のタスクには、株式や決算説明電話のトランスクリプトに対するセンチメント・スコアの提供、ニュースの見出しの分類、信用リスク評価の抽出、金融関連の長文テキストの要約、金融や保険関連の質問への回答などがある。
- 使用法
- 抽出、要約、分類タスクをサポート。 財務関連のタスクに役立つ出力を生成します。 モデル固有のプロンプト形式を使用。 構造化出力の生成に使用できる特殊文字を受け付ける。
- size
- 130億パラメータ
- API価格ティア
- クラス 1. 価格の詳細については、表2および表4を参照のこと。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):8,192
- 対応自然言語
英語
- インストラクション・チューニング情報
Graniteのモデルファミリーは、インターネット、学術、コード、法律、金融の5つのドメインから、企業に関連するデータセットで学習される。 モデルの学習に使用されるデータは、まずIBMのデータガバナンスレビューを受け、IBMHAPフィルターによって、憎悪、虐待、冒涜のフラグが付いたテキストがフィルタリングされる。 IBMは、使用したトレーニング方法とデータセットに関する情報を共有している。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
granite-7b-lab
granite-7b-labの foundation modelは IBMから提供されている。 granite-7b-labの foundation modelは、IBMResearchの新しいアライメント調整法を使用している。 LAB(Large-scale Alignment forchatBots,)は、スキルの合成データを生成し、そのデータを使ってfoundation modelをチューニングすることで、既存の基礎モデルに新しいスキルを追加する手法である。
- 使用法
- 抽出、要約、分類などの汎用タスクをサポート。 使い方のヒントについては、プロンプトのガイドラインに従ってください。 詳しくは、 granite-7b-labのプロンプトを参照。
- size
- 70億パラメータ
- API価格ティア
- クラス 1. 価格の詳細は表2を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):8,192
注:新しいトークン、つまりリクエストごとにfoundation modelによって生成されるトークンの最大数は、4,096個に制限されています。
- 対応自然言語
英語
- インストラクション・チューニング情報
granite-7b-lab foundation modelは、チャットボットのための大規模アラインメント(LAB)手法を使用して繰り返し学習される。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 watsonx.aiで提供されるgranite-7b-lab foundation modelを使用する場合、IBMの補償に関する契約上の保護が適用されます。 IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
granite-8b-japanese
granite-8b-japaneseモデルはIBMから提供されている。 granite-8b-japanese foundation modelは、事前に訓練されたGraniteBase 80億日本語モデルから初期化されたインストラクションバリアントであり、日本語テキストを理解し生成するように訓練されている。
- 使用法
分類、抽出、質問応答、日英間の言語翻訳など、日本語の汎用タスクに役立つ。
- size
80億パラメータ
- API価格ティア
クラス 1. 価格の詳細は表2を参照。
- 使用可能
東京データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
英語、日本語
- インストラクション・チューニング情報
Graniteのモデルファミリーは、インターネット、学術、コード、法律、金融の5つのドメインから、企業に関連するデータセットで学習される。 granite-8b-japaneseモデルは、1兆トークンの英語と0.5兆トークンの日本語で事前学習された。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
granite-20b-multilingual
IBM Graniteファミリーのfoundation model。 granite-20b-multilingual foundation modelは、GraniteBase 200億基盤モデルに基づいており、英語、ドイツ語、スペイン語、フランス語、ポルトガル語のテキストを理解し、生成するように訓練されている。
- 使用法
- 英語、ドイツ語、スペイン語、フランス語、ポルトガル語のクローズドドメインの質問応答、要約、生成、抽出、分類。
- size
200億パラメータ
- API価格ティア
クラス 1. 価格の詳細は表2を参照。
- 使用可能
マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):8,192
- 対応自然言語
英語、ドイツ語、スペイン語、フランス語、ポルトガル語
- インストラクション・チューニング情報
Graniteのモデルファミリーは、インターネット、学術、コード、法律、金融の5つのドメインから、企業に関連するデータセットで学習される。 モデルの学習に使用されるデータは、まずIBMのデータガバナンスレビューを受け、IBMHAPフィルターによって、憎悪、虐待、冒涜のフラグが付いたテキストがフィルタリングされる。 IBMは、使用したトレーニング方法とデータセットに関する情報を共有している。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
granite-3-8b-base
Granite 8b foundation modelは、 IBM Granite ファミリーに属するベース・モデルである。 このモデルは、多様なドメインから収集された10兆個のトークンで学習され、さらに、特定のタスクでモデルのパフォーマンスを向上させるために慎重に選択された2兆個の高品質データで学習される。
- 使用法
Granite 3.0 ベース・ foundation modelは、特定のアプリケーション・シナリオに特化したモデルを作成するためにカスタマイズできるベースライン・モデルです。
- 使用可能なサイズ
80億パラメータ
- API価格ティア
価格の詳細は表4を参照。
- 使用可能
専用にオンデマンドで展開。
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字)。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
Granite Instruct モデル
Granite Instructファウンデーション・モデルは、IBM Graniteファミリーに属する。 granite-3-2b-instructと granite-3-8b-instructの基礎モデルは、要約、生成、コーディングなどのタスクのための第3世代のインストラクター・チューニング言語モデルである。 基盤モデルは、GPTスタイルのデコーダのみのアーキテクチャを採用し、IBMリサーチとオープン・コミュニティからの追加的なイノベーションを加えている。
- 使用法
Granite Instruct基礎モデルは、要約、問題解決、テキスト翻訳、推論、コードタスク、関数呼び出しなど、指示に従うタスクに秀でるように設計されている。
- 利用可能なサイズ
- 20億パラメータ
- 80億パラメータ
- API価格ティア
- 2b:クラスC1
- 8b:クラス12
価格の詳細は表2を参照。
- 使用可能
マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 2b: 131,072
- 8b: 131,072
最大新規トークン、つまりリクエストごとにfoundation modelによって生成されるトークンは、8,192個に制限される。
- 対応自然言語
英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字)。
- サポートされるプログラミング言語
Granite Instructモデルは、116のプログラミング言語で書かれたコードで学習される。
- インストラクション・チューニング情報
Granite Instructモデルは、許可されたオープンソースとプロプライエタリな命令データの組み合わせで、12兆以上のトークンで訓練された「Granite Instructベースモデルを微調整したものである。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
Granite Guardian モデル
Granite Guardianファウンデーション・モデルは、IBM Graniteファミリーに属する。 granite-guardian-3-2bおよびgranite-guardian-3-8b基礎モデルは、プロンプトと応答におけるリスクを検出するように設計された、3.0世代の微調整された「Granite Instructモデルである。 基礎モデルは、AIリスク・アトラスの多くの重要な次元に沿ったリスク検知に役立つ。
- 使用法
Granite Guardian基礎モデルは、(ガードレールとして)プロンプトテキストまたはモデル応答内の危害関連リスクを検出するように設計されており、文脈関連性(検索された文脈がクエリに関連しているかどうか)、根拠性(応答が提供された文脈に正確かつ忠実であるかどうか)、および回答関連性(応答がユーザーのクエリに直接対応しているかどうか)を評価するために、検索拡張生成ユースケースで使用することができる。
- 利用可能なサイズ
- 20億パラメータ
- 80億パラメータ
- API価格ティア
- 2b:クラスC1
- 8b:クラス12
価格の詳細は表2を参照。
- 使用可能
マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 2b:8,192
- 8b:8,192
- 対応自然言語
英語
- インストラクション・チューニング情報
Granite Guardianモデルは、人間が注釈を付けたデータと合成データの組み合わせで訓練された「Granite Instructモデルを微調整したものである。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
Granite Code モデル
IBM Graniteファミリーのファンデーションモデル。 Granite Code基礎モデルは、人間の指示と対になったGitのコミットと、オープンソースで合成的に生成されたコード指示データセットの組み合わせを使って微調整された指示追従モデルである。
granite-8b-code-instruct v2.0.0 foundation modelでは、コンテキストウィンドウの長さが長くなり、より大きなプロンプトを処理できるようになりました。
- 使用法
以下の「Granite Code基礎モデルは、コーディング関連の指示に応答するように設計されており、コーディングアシスタントを構築するために使用することができる:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
以下の'Granite Code基礎モデルは、granite-20b-code-base foundation modelの命令チューニングされたバージョンで、テキストからSQLへの生成タスク用に設計されています。
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- 利用可能なサイズ
- 30億パラメータ
- 80億パラメータ
- 200億パラメータ
- 340億パラメータ
- API価格ティア
クラス 1.
コードモデルの価格詳細は表2を参照。
text-to-SQLモデルの価格詳細については、 表4を参照のこと。
- 使用可能
Granite Code モデル:マルチテナント・ハードウェア上に配置された IBMが提供。
Text-to-SQLコードモデル:専用にオンデマンドで展開
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
granite-3b-code-instruct: 128,000
最大新規トークン、つまりリクエストごとにfoundation modelによって生成されるトークンは、8,192個に制限される。
granite-8b-code-instruct: 128,000
最大新規トークン、つまりリクエストごとにfoundation modelによって生成されるトークンは、8,192個に制限される。
granite-20b-code-instruct: 8,192
最大新規トークン、つまりリクエストごとにfoundation modelによって生成されるトークンは、4,096個に制限される。
granite-20b-code-base-schema-linking: 8,192
granite-20b-code-base-sql-gen: 8,192
granite-34b-code-instruct: 8,192
- 対応自然言語
英語
- サポートされるプログラミング言語
Granite Code基盤モデルは、Python、Javascript、Java、C++、Go、Rustを含む116のプログラミング言語をサポートしている。 全リストは、IBM財団モデルを参照。
- インストラクション・チューニング情報
これらのモデルは、「Granite Codeベースモデルから、論理的推論や問題解決能力を含む指示追従能力を高めるために、寛容にライセンスされた指示データを組み合わせて微調整されたものである。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
-
IBM基盤モデルは、IBM CloudServiceの一部とみなされる。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
- 詳細はこちら
以下の資料をお読みください:
jais-13b-chat
jais-13b-chat foundation modelは、会話タスクをサポートするために微調整されたアラビア語と英語のバイリンガル大規模言語モデルです。
- 使用法
- アラビア語のQ&A、要約、分類、生成、抽出、翻訳をサポート。
- size
- 130億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表3を参照。
- 使用可能
- フランクフルト・データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- サンプルプロンプトアラビア語チャット
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):2,048
- 対応自然言語
- アラビア語(現代標準アラビア語)、英語
- インストラクション・チューニング情報
- Jais-13b-chatは、1,160億のアラビア語トークンと2,790億の英語トークンで学習されたfoundation modelであるJais-13bモデルに基づいている。 Jais-13b-chatは、400万組のアラビア語と600万組の英語のプロンプトとレスポンスのペアをキュレートして微調整されている。
- モデル・アーキテクチャ
- デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細はこちら
- 以下の資料をお読みください:
Llama 3.3 70B Instruct
Meta Llama 3.3多言語大規模言語モデル(LLM)は、700億のパラメータを持つ事前学習および命令チューニングされた生成モデル(テキストイン/テキストアウト)です。
llama-3-3-70b-instructは、好評のLlama 3.170Bインストラクターfoundation modelの改訂版です。 Llama 3.3のfoundation modelは、コーディング、ステップバイステップの推論、ツールの呼び出しに優れている。 サイズが小さいにもかかわらず、Llama 3.3モデルの性能はLlama 3.1405bモデルとほぼ同じであり、開発者にとって最適な選択肢となっている。
- 使用法
チャットボットのように多言語のダイアログ出力を生成します。 モデル固有のプロンプト形式を使用。
- 使用可能なサイズ
700億パラメータ
- API価格ティア
クラス 2
価格の詳細は表3を参照。
- 使用可能
モデルの量子化バージョンは、マルチテナント・ハードウェア上に配置された IBMによって提供されている。
このモデルには2つのバージョンがあり、オンデマンドで専用に使用することができる:
- llama-3-3-70b-instruct-hf: 原文は Hugging Face by Metaに掲載。
- llama-3-3-70b-instruct: 4GPUではなく2GPUで展開できる量子化バージョン。
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- インストラクション・チューニング情報
Llama 3.3は、一般に公開されているソースからの15兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、2500万以上の合成生成例が含まれる。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
Llama 3.2 Instruct
Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-3-2-1b-instructと llama-3-2-3b-instructは、モバイル機器に収まる最小のLlama 3.2モデルです。 このモデルは軽量でテキストのみのモデルであり、高度にパーソナライズされたオンデバイス・エージェントの構築に使用できる。
たとえば、最近受け取った10通のメッセージを要約したり、来月のスケジュールを要約したりするよう、モデルに頼むことができる。
- 使用法
チャットボットのようなダイアログ出力を生成します。 モデル固有のプロンプト形式を使用する。 Llama 3.2インストラクター・モデルは、サイズが小さく、必要な計算リソースとメモリが控えめであるため、モバイルやその他のエッジ・デバイスを含むほとんどのハードウェア上でローカルに実行することができる。
- 利用可能なサイズ
- 10億パラメータ
- 30億パラメータ
- API価格ティア
- 1b:クラスC1
- 3b:クラス8
価格の詳細は表3を参照。
価格の詳細については、ジェネレーティブAIアセットの課金詳細をご覧ください。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 1b:131,072
- 3b:131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- インストラクション・チューニング情報
一般に公開されているソースからの最大9兆トークンのデータで事前学習。 Llama 3.18Bおよび70Bモデルからのロジットは、モデル開発の事前トレーニング段階に組み込まれ、これらの大規模モデルからの出力(ロジット)がトークン・レベルのターゲットとして使用された。 ポストトレーニングでは、教師ありファインチューニング(SFT)、リジェクションサンプリング(RS)、直接選好最適化(DPO)を用いて、事前学習したモデルの位置合わせを行う。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
Llama 3.2 Vision Instruct
Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-3-2-11b-vision-instructと llama-3-2-90b-vision-instructモデルは、文書レベルの理解、チャートやグラフの解釈、画像のキャプションのような画像イン、テキストアウトのユースケースのために構築されています。
- 使用法
チャットボットのようなダイアログ出力を生成し、分類、オブジェクト検出と識別、画像からテキストへの転写(手書きを含む)、文脈に応じたQ&A、データ抽出と処理、画像比較、個人的な視覚支援を含むコンピュータ・ビジョン・タスクを実行できる。 モデル固有のプロンプト形式を使用。
- 利用可能なサイズ
- 110億パラメータ
- 900億パラメータ
- API価格ティア
- 11b:クラス9
- 90b:クラス10
価格の詳細は表3を参照。
- 使用可能
マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 11b:131,072
- 90b:131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。 モデルに提出した画像に対してカウントされるトークンは、コンテキストウィンドウの長さには含まれません。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語はテキスト入力のみ。 画像が入力に含まれている場合のみ英語。
- インストラクション・チューニング情報
Llama 3.2 Visionモデルは、コアとなる大規模言語モデルの重みとは別に学習された画像推論アダプターの重みを使用する。 この分離はモデルの一般的な知識を保持し、事前学習時と実行時の両方でモデルをより効率的にする。 Llama 3.2 Visionモデルは、60億の画像とテキストのペアで事前学習され、Llama 3.170Bの foundation model事前学習するのに必要な計算リソースよりもはるかに少ない計算リソースで済みました。 Llama 3.2モデルは、入力が必要とする場合にのみ、画像推論のためにより多くの計算リソースを利用できるため、効率的に動作する。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
llama-guard-3-11b-vision
Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-guard-3-11b-visionは、テキストのみのLlama-Guard-3モデルをマルチモーダルに進化させたものである。 このモデルは、ユーザー入力(プロンプト分類)に含まれる画像やテキストコンテンツを安全か安全でないかの分類に使用できる。
- 使用法
モデルを使用して、画像からテキストへのプロンプトで画像とテキストの安全性をチェックする。
- size
- 110億パラメータ
- API価格ティア
クラス 9. 価格の詳細は表3を参照。
- 使用可能
マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。 モデルに提出した画像に対してカウントされるトークンは、コンテキストウィンドウの長さには含まれません。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語はテキスト入力のみ。 画像が入力に含まれている場合のみ英語。
- インストラクション・チューニング情報
コンテンツの安全性分類のために微調整された事前学習済みモデル。 安全でないと分類されるコンテンツの種類については、モデルカードを参照してください。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
Llama 3.18b
Meta Llama 3.1の基礎モデルのコレクションは'Metaによって提供される。 Llama 3.1のベースとなるfoundation modelは、ツールの使用をサポートする多言語モデルであり、全体的に推論機能が強化されている。
- 使用法
- 長文テキストの要約や、多言語会話エージェントやコーディングアシスタントに使用できます。
- 使用可能なサイズ
- 80億パラメータ
- API価格ティア
- 価格の詳細は表5を参照。
- 使用可能
- 専用にオンデマンドで展開。
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
- 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- モデル・アーキテクチャ
- デコーダのみ
- 使用許諾条件
- 詳細はこちら
- 以下の資料をお読みください:
Llama 3.1 Instruct
Meta Llama 3.1の基礎モデルのコレクションは'Metaによって提供される。 Llama 3.1の基礎モデルは、多言語対話のユースケースに最適化された、事前学習とインストラクションチューニングが施されたテキストのみの生成モデルです。 このモデルは、人間のフィードバックによる教師ありの微調整と強化学習を使って、人間の「親切」と「安全」の嗜好に合わせる。
llama-3-405b-instructモデルは、'Metaがオープンソース化した、これまでで最大のfoundation modelである。 このfoundation modelは、合成データ生成器、学習後のデータランキング判定器、あるいはモデルの教師/教師として使用することもでき、より推論に適した派生モデルで専門的な能力を向上させることができる。
- 使用法
チャットボットのようなダイアログ出力を生成する。 モデル固有のプロンプト形式を使用。
- 利用可能なサイズ
- 80億パラメータ
- 700億パラメータ
- 4050億パラメータ
- API価格ティア
- 8b:クラス1
- 70b:クラス2
- 405b:クラス3(入力)、クラス7(出力)
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- llama-3-1-8b-instructの foundation modelをオンデマンドで専用に配置します。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
8bおよび70b:131,072
405b:16,384
- モデルは131,072のコンテキストウィンドウ長をサポートしているが、モデルがレスポンスを生成する時間を短縮するため、ウィンドウは16,384に制限されている。
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は4,096個に制限されている。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- インストラクション・チューニング情報
Llama 3.1は、一般に公開されているソースからの15兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、2500万以上の合成生成例が含まれる。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
Llama 3 Instruct
Meta Llama 3ファミリーの基礎モデルは、'Meta Llama 3で構築され、Hugging Faceの'Metaによって提供される、アクセス可能でオープンな大規模言語モデルです。 Llama 3の基礎モデルは、様々なユースケースをサポートできるように細かく調整された言語モデルです。
- 使用法
チャットボットのようなダイアログ出力を生成する。
- 利用可能なサイズ
- 80億パラメータ
- 700億パラメータ
- API価格ティア
- 8b:クラス1
- 70b:クラス2
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 8b:8,192
- 70b:8,192
注:新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの最大数は、4,096個に制限されています。
- 対応自然言語
英語
- インストラクション・チューニング情報
Llama 3では、トレーニング後の手順が改善され、偽の拒否率が減少し、アライメントが改善され、foundation model出力の多様性が増加しました。 その結果、推論能力、コード生成能力、命令追従能力が向上した。 Llama 3はより多くのトレーニング・トークン15T)を持っており、その結果、言語理解力が向上している。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
Llama 2 Chat
Llama 2 ChatのモデルはHugging Faceの「Meta」が提供している。 微調整されたモデルはチャット生成に役立つ。 モデルは、一般に公開されているオンラインデータを使って事前に学習され、人間のフィードバックから強化学習を使って微調整される。
130億パラメータまたは700億パラメータバージョンのモデルを使用することができます。
- 使用法
- チャットボットのようなダイアログ出力を生成する。 モデル固有のプロンプト形式を使用。
- size
- 130億パラメータ
- 700億パラメータ
- API価格ティア
- クラス 1. 価格の詳細は表 3と表5を参照。
- 使用可能
- 13b
- マルチテナント・ハードウェア上に配置された IBMが提供
- 専用にオンデマンドで展開
- 70b
- 専用にオンデマンドで展開
- 13b
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキストウィンドウの長さ(入力+出力)
- 13b:4,096
- 70b:4,096
- 対応自然言語
- 英語
- インストラクション・チューニング情報
- Llama 2は、一般に公開されているソースからの2兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、人間が注釈をつけた100万以上の新しい例が含まれている。
- モデル・アーキテクチャ
- デコーダのみ
- 使用許諾条件
- 使用許諾条件
- 詳細はこちら
- 以下の資料をお読みください:
mistral-large
Mistral Large 2は、Mistral AI開発された大規模言語モデルである。 foundation modelは、英語、フランス語、スペイン語、ドイツ語、イタリア語の文法と文化的背景を理解し、流暢に話すことができる。 foundation modelは、他の何十もの言語も理解することができる。 このモデルには大きなコンテキスト・ウィンドウがあり、検索支援生成(RAG)のユースケースで送信するプロンプトに、大きな文書をコンテキスト情報として追加することができる。 mistral-large foundation modelは、コードの生成、レビュー、コメント、関数呼び出しなどのプログラム的タスクに効果的で、JSON形式で結果を生成することができる。
さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。
- 使用法
テキスト理解、変換、コード生成などの複雑な多言語推論タスクに適しています。 モデルのコンテキストウィンドウが大きいため、プロンプトを表示する際には、max tokensパラメータを使ってトークンの上限を指定してください。
- API価格ティア
Mistral Largeの価格は、乗数で割り振られていない。 以下の特別価格帯が適用される:
- 入力階層Mistral Large
- 出力レベルMistral Large
価格の詳細は表3を参照。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):128,000
注。
- このモデルは128,000のコンテキストウィンドウ長をサポートしているが、モデルがレスポンスを生成する時間を短縮するため、ウィンドウは32,768に制限されている。
- 最大新規トークン、つまりリクエストごとにfoundation modelによって生成されるトークンは、16,384個に制限される。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語、その他多数の言語。
- サポートされるプログラミング言語
mistral-largeモデルは、Python、Java、C、C++、JavaScript,Bash、Swift、Fortranを含む80以上のプログラミング言語で学習されている。
- インストラクション・チューニング情報
mistral-large foundation modelは、様々なドメインのテキスト、コードベース、数学データなどの多様なデータセットで事前に訓練されている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細はこちら
以下の資料をお読みください:
mistral-nemo-instruct-2407
mistral-nemo-instruct-2407基礎モデルは、'Mistral AIが'NVIDIAと共同で構築した120億パラメータモデルである。 Mistral NeMo、推論、世界知識、コーディングの正確さにおいて、特にこのサイズのモデルとしては非常に優れた結果を出している。
- 使用法
- Mistral NeMoモデルは多言語で、関数呼び出しについて学習される。
- size
- 120億パラメータ
- API価格ティア
- 価格の詳細は表5を参照。
- 使用可能
- 専用にオンデマンドで展開。
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
- 複数の言語に対応し、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語に強い。
- サポートされるプログラミング言語
- Mistral NeMoモデルは、いくつかのプログラミング言語で学習されている。
- インストラクション・チューニング情報
- Mistral NeMo高度な微調整とアライメントの段階を経た。
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細はこちら
- 以下の資料をお読みください:
mixtral-8x7b-base
mixtral-8x7b-baseの foundation modelは'Mistral AIによって提供される。 mixtral-8x7b-base foundation modelは、モデルパラメータをグループ化し、各トークンに対して、そのトークンを処理するグループ(エキスパートと呼ばれる)のサブセットを選択する、生成的なスパースmixture-of-expertsネットワークである。 その結果、各トークンは470億のパラメーターにアクセスできるが、推論に使用するアクティブパラメーターは130億にとどまり、コストとレイテンシーが削減される。
- 使用法
分類、要約、生成、コード作成と変換、言語翻訳など、多くのタスクに適しています。
- size
46.46.7億パラメータ
- API価格ティア
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):32,768
注:新しいトークン、つまりリクエストごとにfoundation modelによって生成されるトークンの上限は、16,384個に制限されている。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
mixtral-8x7b-instruct-v01
mixtral-8x7b-instruct-v01の foundation modelは'Mistral AI によって提供される。 mixtral-8x7b-instruct-v01 foundation modelは、モデルパラメータをグループ化し、各トークンに対して、トークンを処理するグループ(エキスパートと呼ばれる)のサブセットを選択する、事前学習された生成的スパースmixture-of-expertsネットワークである。 その結果、各トークンは470億のパラメーターにアクセスできるが、推論に使用するアクティブパラメーターは130億にとどまり、コストとレイテンシーが削減される。
- 使用法
分類、要約、生成、コード作成と変換、言語翻訳など、多くのタスクに適しています。 モデルのコンテキストウィンドウが異常に大きいため、モデルにプロンプトを出す際には、max tokensパラメータを使ってトークンの上限を指定してください。
- size
46.46.7億パラメータ
- API価格ティア
クラス 1. 価格の詳細は表3を参照。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):32,768
注:新しいトークン、つまりリクエストごとにfoundation modelによって生成されるトークンの上限は、16,384個に制限されている。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語
- インストラクション・チューニング情報
Mixtralのfoundation modelは、インターネットデータで事前学習される。 Mixtral 8x7B Instruction 基盤モデルは、指示に従うように微調整されています。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
mt0-xxl-13b
mt0-xxl-13bのモデルはBigScienceから Hugging Faceで提供されている。 このモデルは、英語、英語以外の言語、多言語プロンプトを使用した言語生成および翻訳タスクをサポートするように最適化されている。
使用法:zero-または「few-shotプロンプトでの一般的な使用。 翻訳タスクの場合、翻訳してほしいテキストの終わりを示すピリオドを入れてください。
- size
- 130億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表5を参照。
- 使用可能
- 専用にオンデマンドで展開。
- 試してみる
- 以下のサンプルで実験してみよう:
- 対応自然言語
- マルチリンガル
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- モデルは108言語の多言語データで事前学習され、46言語の多言語データで微調整され、多言語タスクを実行する。
- インストラクション・チューニング情報
- BigScienceはそのコードとデータセットの詳細を公表している。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細はこちら
- 以下の資料をお読みください:
pixtral-12b
ピクストラル12Bは、ミストラル・アルが開発したマルチモーダルモデル。 pixtral-12bの foundation modelは、自然画像と文書の両方を理解するように訓練されており、自然な解像度と縦横比で画像を取り込むことができるため、画像を処理するために使用されるトークンの数に柔軟性がある。 foundation modelは、長いコンテクストウィンドウに複数の画像を表示できる。 このモデルは、イメージ・イン、テキスト・アウトのマルチモーダルなタスクに効果的で、インストラクション・フォローに優れている。
- 使用法
- 図表理解、文書質問回答、マルチモーダルな推論、指示に従うこと
- size
- 120億パラメータ
- API価格ティア
- クラス 9. 価格の詳細は表3を参照。
使用可能
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):128,000
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。
- 対応自然言語
英語
- インストラクション・チューニング情報
pixtral-12bモデルは、インターリーブされた画像とテキストデータで学習され、ゼロから学習された4億パラメータのビジョンエンコーダを持つMistral Nemoモデルをベースにしている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細はこちら
以下の資料をお読みください:
非推奨の基礎モデルは、非推奨の警告アイコン で強調表示されます。 foundation modelの廃止時期など、廃止に関する詳細については、Foundationモデルのライフサイクルを参照してください。
詳細情報
親トピック 生成的AIソリューションの開発