IBM watsonx.aiでは、ビジネス用に設計された保全性のある IBM ファウンデーション・モデルを使用できます。
watsonx.ai: では、 IBM ファウンデーション・モデルの以下のファミリーを使用できます。
Granite ファウンデーション・モデル
Granite ファミリーの IBM ファウンデーション・モデルには、言語を効率的に予測および生成できるデコーダーのみのモデルが含まれています。
これらのモデルは、以下の特性を持つ信頼できるデータを使用して構築されています。
- 金融(SEC提出書類)、法律(Free Law)、テクノロジー(Stack Exchange)、科学( arXiv,DeepMind数学)、文学(プロジェクト・グーテンベルク( PG-19))、 もっと。
- 厳格な IBM データ・クリアランスおよびガバナンス標準に準拠している。
- 特に、憎悪、虐待、および不適切表現、データ重複、および不許可リストに登録された URL の消し込み。
IBM は、オープンで信頼性の高い、ターゲットを絞った、強化された AI の構築に取り組んでいます。 IBMの補償に関連する契約上の保護の詳細については、IBMClient Relationship AgreementおよびIBM watsonx.aiサービス説明を参照してください。
watsonx.ai: では、以下の Granite モデルを使用できます。
- granite-7b-lab
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-8b-japanese
- granite-20b-multilingual
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-ttm-512-96-r2
- granite-ttm-1024-96-r2
- granite-ttm-1536-96-r2
以下のセクションでは、各モデルについて学習するための簡略説明といくつかのリソースを示します。 詳しくは、 サポートされるファウンデーション・モデルを参照してください。
granite-7b-lab
IBM Research の新しい位置合わせチューニング方式を使用して構築された一般的な使用モデル。 LAB(Large-scale Alignment forchatBots,)は、スキルの合成データを生成し、そのデータを使ってfoundation modelをチューニングすることで、既存の基礎モデルに新しいスキルを追加する手法である。
プロンプトのガイドラインについては、 IBMの granite-7b-lab foundation modelのプロンプトを参照してください。
モデルの仕様については、サポートされている基礎モデルを参照してください。
モデルカード:granite-7b-labモデルカード
お試しください:
granite-13b-chat-v2
ダイアログ・ユース・ケース用に最適化された一般使用モデル。 このバージョンのモデルでは、専門的なトーンを使用して、より長く品質の高い応答を生成できます。 このモデルは、人々の言及を認識し、トーンと感情を検出することができます。
プロンプトのガイドラインについては、 IBMの granite-13b-chat-v2 foundation modelのプロンプトを参照してください。
モデルの仕様については、サポートされている基礎モデルを参照してください。
モデルカード:granite-13b-chat-v2モデルカード
お試しください:
granite-13b-instruct-v2
汎用モデル。 このバージョンのモデルは、分類、抽出、および要約の各タスク用に最適化されています。 このモデルは、人についての言及を認識し、より長い入力を要約することができます。
モデルの仕様については、サポートされている基礎モデルを参照してください。
モデルカード:granite-13b-instruct-v2モデルカード
お試しください:
granite-8b-japanese
日本語をサポートする一般的な使用モデル。 このバージョンのモデルは、 Granite Instruct モデルに基づいており、日本語の分類、抽出、および質問への回答の各タスク用に最適化されています。 このモデルは、英語と日本語の間の翻訳にも使用できます。
モデルの仕様については、サポートされている基礎モデルを参照してください。
モデルカード:granite-8b-japanesemodel card
お試しください:
granite-20b-multilingual
英語、ドイツ語、スペイン語、フランス語、およびポルトガル語をサポートする一般使用モデル。 このバージョンのモデルは、 Granite Instruct モデルに基づいており、複数の言語での分類、抽出、および質問への回答の各タスク用に最適化されています。 また、このモデルを翻訳タスクに使用することもできます。
モデルの仕様については、サポートされている基礎モデルを参照してください。
モデルカード:granite-20b-multilingualモデルカード
お試しください:
Granite Code モデル
コードのディスカッション、生成、および変換をサポートする、命令の微調整モデル。 これらの基盤モデルは、プログラマチック・コーディング・タスクに使用します。 Graniteは、論理的推論や問題解決を含む指示追従能力を高めるために、指示データの組み合わせで微調整される。
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
以下の'Granite Code基礎モデルは、granite-20b-code-base foundation modelの命令チューニングされたバージョンで、テキストからSQLへの生成タスク用に設計されています。
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
サンプル・ノートブック「 Inferencing with Granite Text-to-SQL Models 」を使って試してみてください。
詳しくは、以下のトピックを参照してください。
モデル・カード:
- granite-3b-code-instruct・モデル・カード
- granite-8b-code-instructモデルカード
- granite-20b-code-instructモデルカード
- 20bベース・スキーマ・リンク・モデル・カード
- 20bベースSQL世代モデルカード
- granite-34b-code-instruct・モデル・カード
お試しください:
Granite Instruct モデル
軽量でオープンソースの第3世代Graniteは、寛容にライセンスされたオープンソースとプロプライエタリなインストラクション・データの組み合わせで微調整される。 Graniteは、要約、問題解決、テキスト翻訳、推論、コードタスク、関数呼び出しなど、以下のタスクの指導に優れた言語モデルを構築する。
- granite-3-2b-instruct
- granite-3-8b-instruct
Granite Instruct 3.1 基礎モデルは116のプログラミング言語をサポートしている。 詳しくは、以下のトピックを参照してください。
モデル・カード:
お試しください:
Graniteのモデル
GraniteGuardianのモデルは、人間の注釈と合成データからなる独自のデータで訓練された、微調整された第3世代のGraniteInstructモデルです。 基礎モデルは、幅広い企業アプリケーションに適用可能なリスク検知のユースケースに有用である。
- granite-guardian-3-2b
- granite-guardian-3-8b
詳しくは、以下のトピックを参照してください。
モデル・カード:
お試しください:
Granite時系列モデル
IBM Granite時系列基礎モデルは、IBMリサーチによる多変量時系列予測のためのコンパクトな事前学習済みモデルで、タイニー・タイム・ミキサー(TTM)としても知られています。
Graniteの時系列モデルは、電力、交通、製造業など、さまざまな分野の時系列データの約10億サンプルで学習された。 あなたのデータでモデルを訓練することなく、これらの訓練済みモデルのいずれかをターゲットデータに適用して初期予測を得ることができます。 Granite時系列基礎モデルは、過去の時系列データ観測セットが与えられると、動的システムの理解を応用して将来のデータ値を予測することができる。
watsonx.ai:で使用できる時系列基礎モデルは以下の通りです:
granite-ttm-512-96-r2
:データセットあたり少なくとも512データポイントが必要。granite-ttm-1024-96-r2
:データセットあたり少なくとも1,024データポイントが必要。granite-ttm-1536-96-r2
:データセットあたり少なくとも1,536データポイントが必要。
Granite時系列モデルは、1分または1時間間隔のデータポイントに最適で、時系列ごとに、ターゲット列ごとに最大96のデータポイントを持つ予測データセットを生成する。
お試しください:
- watsonx.aiAPIの時系列予測メソッドを使用することで、モデルにゼロショット推論リクエストを送信することができます。 詳細については、 IBM Granite時系列モデルと予測APIを使用してトレンドを予測するを参照してください。
- サンプルノートブック時系列基礎モデルと時系列データを使ってエネルギー需要を予測する
詳細情報
Slate ファウンデーション・モデル
Slate ファミリーの IBM ファウンデーション・モデルには、自然言語処理およびテキスト埋め込みタスクを専門とするエンコーダーのみのモデルが含まれています。
現在、 watsonx.ai では、以下の Slate 組み込みモデルを使用できます。
- slate-125m-english-rtrvr-v2, slate-125m-english-rtrvr
- テキストをテキスト埋め込みに変換する768次元埋め込みモデル。
- slate-30m-english-rtrvr-v2, slate-30m-english-rtrvr
- テキストをテキスト埋め込みに変換する384次元埋め込みモデル。
これらのモデルの詳細については、サポートされるエンコーダ基礎モデルを参照してください。
Slateモデルを使って文や文章をテキスト埋め込みに変換する方法については、テキスト埋め込み生成 をご覧ください。
IBM Slate モデルは、一般的な自然言語処理 (NLP) タスク (分類、エンティティー抽出、評判分析など) に使用できる一連のライブラリーを備えています。
スレート・モデルの NLP 機能の使用方法の詳細については、WatsonNLP ライブラリを参照してください。
親トピック: サポートされる基盤モデル