watsonx as a Service の新着情報 IBM Cloud
IBM watsonx.ai IBM watsonx.governance IBM Cloud の新機能やアップデートについては、毎週チェックしてください。
AWS の IBM watsonx.governance については、 IBM の watsonx.governance AWS の What's new を参照のこと。
2025年5月16日までの週
AI のガードレールをモデルの入力に適用する際には、 Granite Guardian LLM を使ってコンテンツを管理する
15 2025年5月
Granite ガーディアンの基盤モデル、AI ガーディアンを使ってコンテンツをモデレートし、 基盤モデルプロンプトを試しているときに有害なコンテンツを見つけ、削除する。 ユーザー入力テキストに対して異なるフィルター感度レベルを設定でき、効果的なAIガードレール設定をプロンプトテンプレートに保存できます。
新しい Granite ガーディアンフィルターはベータ版として提供されており、 Prompt Lab、REST API、または Python SDK を使用して設定することができます。 詳しくは、 有害コンテンツの削除をご覧ください。
AutoAI、RAG実験にハイブリッド検索を使用する
15 2025年5月
AutoAI for RAG実験において、ハイブリッド検索ストラテジーを使用してインデックス付き文書からコンテンツを取得し、出力品質を向上させることができるようになりました。 加重平均法とランダム・フォレスト・リグレッサー(RRF)法のいずれかを選択できます。 詳細は RAG実験設定のカスタマイズを参照。
ラマ4スカウトの技術プレビューが終了 watsonx.ai
14 2025年5月
Meta の llama-4-scout-17b-16e-instruct 基盤モデルモデルの技術プレビューは終了しました。 これらの基盤モデル使用しているプロンプトを修正する。
- 廃止日:2025年5月14日
- 脱退日:2025年6月4日
- 代替モデル: llama-4-maverick-17b-128e-instruct-fp8
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。 代替モデルの詳細については、 対応基盤モデル を参照のこと。
ミストラル・ミディアムの技術プレビューが終了 watsonx.ai
14 2025年5月
Mistral AI の mistral-medium-2505 基盤モデル技術プレビューが終了し、課金料金が発生するようになりました。
請求に関する情報は、 対応基盤モデル を参照。
libm- watsonx -ai-cli を使用して、AI サービステンプレートとアプリをローカルにデプロイしてテストします
12 2025年5月
ibm-watsonx-ai-cli
ツールをインストールして、AI サービステンプレートとアプリを watsonx.ai にデプロイし、ローカル環境からテストします。 詳細については、 「ibm- watsonx -ai-cli を使用して AI サービス テンプレートとアプリをローカルでテストする」を参照してください。
RAGアクセラレーターとのQ&Aを強化
12 2025年5月
Q&A with RAGアクセラレータが以下の新機能を追加してアップデートされました:
- Elastic Learned Sparse EncodeR (ELSER)を従来の BM25 スコアリングと組み合わせて検索精度を向上させたクエリー。
- 以下のモデルのプロンプトテンプレート:
- ラマ・モデル: llama-4-maverick-17b-128e-instruct llama3-3_70b_instruct
- Granite 3.3 モデルを使用しています: granite-3-3-8b-instruct granite-3-2_8b_instruct granite-3_2b_instruct
- 現行のエンベデッドモデルをサポート。 埋め込みモデルを参照。
- ソリューションに追加できるチャットボットのサンプル:
- watsonx Orchestrate チャットボット
- Streamlitチャットボットアプリケーション
詳細は RAGアクセラレーターとのQ&Aを参照。 サンプルプロジェクトを作成するには、 Resource hubのQ&A with RAG acceleratorにアクセスしてください。
2025年5月9日までの週
mistral-medium-2505、ダラス地域の watsonx.ai 基盤モデル
7 2025年5月
mistral-medium-2505 基盤モデル、 Mistral AI の最新モデル Mistral Medium 3 ファミリーに属し、ダラス地域のマルチテナント・ハードウェアで技術プレビューとして利用できる。 このモデルは視覚入力を処理することができ、プログラミング、ツール呼び出し、数学的推論、文書理解、対話を含む幅広いタスクをサポートする。
詳細は 対応基盤モデル を参照。
2025年5月2日までの週
カスタム基盤モデルを使用して AutoAI for RAG 実験を実行する
1 2025年5月
AutoAI for RAG実験において、カスタム基盤モデル使用してRAGパターンを生成できるようになりました。 これは、 AutoAI for RAG 実験を実行しているプロジェクトと、あなたがメンバーであるスペースに配備されている基盤モデル適用されます。
基盤モデル選択についての詳細は、 RAG実験設定のカスタマイズを参照のこと。
また、 AutoAI SDKを使用して、カスタム・ 基盤モデル RAGパターンをコーディングすることもできます。 詳細は AutoAI RAG実験をカスタム基盤モデルコーディングする を参照。
文書テキスト抽出APIの新バージョンは watsonx.ai
1 2025年5月
watsonx.ai REST API のテキスト抽出メソッドの更新版を使用して、複雑なビジネス文書を簡素化できるようになりました。 IBM が開発した文書理解技術の最新版には、次のような機能強化が含まれている:
- Microsoft Word文書、Microsoft PowerPoint プレゼンテーション、HTML、各種画像形式など、幅広い入出力ファイル形式をサポート。
- アクセシビリティと解釈のための画像処理と図の言語化の改善
- 光学式文字認識により、100以上の言語、複数のスクリプト、および英語の手書き文字を機械印刷でテキストを抽出します。
- 請求書や公共料金請求書などの特定のドキュメントタイプから、キーと値のペア形式で構造化データを抽出する
- コードスニペットの検出と抽出
テキスト抽出プロセスおよび API の機能強化の詳細については、以下のトピックを参照してください:
APIは有料プランのユーザーであれば、すべての地域で利用できる。 料金の詳細については、 ドキュメントテキスト抽出料金表をご覧ください。
ミストラル・スモール 3.1 基盤モデル推論 watsonx.ai
2025 年 4 月 30 日
Mistral AI の mistral-small-3-1-24b-instruct-2503 基盤モデルモデルが利用可能で、マルチテナント・ハードウェア上でホストされている。 ミストラル・スモール 3.1 の基盤モデル、ミストラル・スモール3をベースに構築されており、テキスト性能を損なうことなく、最先端の視覚理解とロングコンテクスト機能を強化しています。
詳細は 対応基盤モデル を参照。
llama-3-1-70b 基盤モデル、オンデマンドで展開できます
2025 年 4 月 30 日
llama-3-1-70b、オンデマンドの基盤モデル推論できるようになった。 詳細は 対応基盤モデル を参照。
基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
mistral-small-24b-instruct-2501 と mixtral-8x7b-instruct-v01 の基盤モデル廃止されました
2025 年 4 月 30 日
Mistral AI の以下の基盤モデル非推奨である。 これらの基盤モデル使用しているプロンプトを修正する。
mistral-small-24b-instruct-2501
- 償却開始日:2025年4月30日
- 脱退日:2025年7月2日
- 代替モデル: mistral-small-3-1-24b-instruct-2503
mixtral-8x7b-instruct-v01
- 償却開始日:2025年4月30日
- 脱退日:2025年7月30日
- 代替モデル: mistral-small-3-1-24b-instruct-2503
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。 代替モデルの詳細については、 対応基盤モデル を参照のこと。
2025年4月25日までの週
チャットAPIが、オンデマンドのデプロイとカスタム・ 基盤モデルサポートされるようになりました。 watsonx.ai
25 2025年4月
watsonx.ai Chat API を使用して、オンデマンドのデプロイとカスタム基盤モデル両方で会話ワークフローを構築し、アプリケーションにジェネレーティブ AI 機能を追加します。
詳しくは、以下のトピックを参照してください。
新しいオンデマンド・デプロイ・モデルに取り組む watsonx.ai
23 2025年4月
IBM から、以下のオンデマンド基盤モデル推論できるようになりました。 watsonx.ai:
- granite-3-3-8b-instruct
- granite-3-1-8b-base
- llama-3-2-11b-vision-instruct
- poro-34b-chat
価格の詳細については、 対応基盤モデル をご覧ください。 基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
ラマ4モデルの技術プレビューが終了
23 2025年4月
2025年5月1日の技術プレビュー期間終了後、Llama 4 Maverickモデルは、お客様がモデルを推論する際に使用したリソースユニット(RU)に対して課金されます。 1RUは1,000トークンに相当する。
ラマ4スカウトモデルの技術プレビューはまもなく終了し、オンデマンドで配備できるようになる。 このモデルには1時間ごとの課金料金が発生する。
プランの情報と請求の詳細については、 watsonx.ai ランタイムプランをご覧ください。
2025年4月18日までの週
合成データ生成APIを使用して、モデルのチューニングと評価のための非構造化テキストデータセットを生成する
17 2025年4月
LLMを微調整しカスタマイズするために、組織のデータを模倣した大規模で高品質な非構造化テキストデータセットを作成します。 合成データ生成APIは、さまざまなデータ・ビルダー・パイプラインを使用して合成データセットを作成する。 生成された非構造化データを使用して、特定のユースケースに対応する基盤モデルチューニングと評価を行います。
合成データ生成APIはベータ機能として提供されている。 詳細は、 合成非構造化データの生成を参照。
Granite 3.3 の新モデルに取り組む。 watsonx.ai
16 2025年4月
IBM で提供されている以下の Granite モデルを使用できるようになりました。 watsonx.ai:
- granite-3-3-8b-instruct マルチテナント・ハードウェアでの推論が可能
- granite-3-3-2b-instruct オンデマンドで展開可能
詳細は 対応基盤モデル を参照。 基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
IBM Granite ファミリーのいくつかのモデルは非推奨である
16 2025年4月
IBM Granite ファミリーの以下のモデルは非推奨であり、間もなく廃止れる予定です。 これらの基盤モデル使用しているプロンプトを修正する。
granite-3b-code-instruct
- 廃止日:2025年4月16日
- 脱退日:2025年7月17日
- 代替モデル: granite-3-3-8b-instruct
granite-20b-code-instruct
- 廃止日:2025年4月16日
- 脱退日:2025年7月17日
- 代替モデル: granite-3-3-8b-instruct
granite-34b-code-instruct
- 廃止日:2025年4月16日
- 脱退日:2025年7月17日
- 代替モデル: granite-3-3-8b-instruct
granite-8b-japanese
- 廃止日:2025年4月16日
- 脱退日:2025年8月20日
- 代替モデル: granite-3-8b-instruct
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。 代替モデルの詳細については、 対応基盤モデル を参照のこと。
granite-3-2-8b-instruct 基盤モデル、オンデマンドで展開できます
14 2025年4月
granite-3-2-8b-instruct、オンデマンドの基盤モデル推論できるようになった。 詳細は 対応基盤モデル を参照。
基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
2025年4月11日までの週
Elasticsearch AutoAI にRAG実験用のベクターストアが追加された
11 2025年4月
Elasticsearch vector store データベースを使って、 AutoAI for RAG 実験のデータを保存・検索できるようになりました。 詳細については、 RAG実験用のベクターストアの選択を参照してください。
Milvus ベクターストアを自動的に設定し、接続する
10 2025年4月
2025年4月10日以降に watsonx as a Service のトライアルに申し込まれた場合、 Milvus ベクターストアを備えた watsonx.data トライアルが自動的に設定されます。 アップロードされたドキュメントとチャットしたり、ベクターインデックスを作成し、ベクターストアとして Milvus を選択すると、自動的に接続が作成されます。 Milvus ベクターストアの作成 を参照。
Q&A with RAG Accelerator を使って、 Milvus を使った検索拡張生成セットアップをお試しください。
Meta 、最新のラマ4マルチモーダルモデルをプレビューする。 watsonx.ai
7 2025年4月
IBM watsonx.ai で、最新の Meta Llama 4 の多言語、マルチモーダル基盤モデルテクニカルプレビューをお試しいただけます。 Meta 、最新の基盤モデル、より計算効率が高く、モデルの学習と推論に使用するリソースが少ないエキスパート混合( MoE )アーキテクチャを採用している。 モデルはネイティブのマルチモーダルであり、多言語のテキストや画像の理解に特化している。
Llama 4シリーズから以下のモデルをお選びいただけます:
- llama-4-maverick-17b-128e-instruct-fp8
- llama-4-scout-17b-16e-instruct
新しいラマ4モデルの詳細については、 対応基盤モデル をご覧ください。 モデルの地域的な可用性について詳しくは、 IBM Cloud のサービスと機能の地域的な可用性」を参照してください。
2025年4月4日までの週
AutoAI、RAG実験の評価データに複数の正解を追加する
4 2025年4月
評価データ資産資産の各質問に複数の正解を追加できるようになりました。 詳細は、 AutoAI RAG実験の作成を参照。
AutoAI RAG実験における設定の重要性を見直す
4 2025年4月
AutoAI RAG実験を実行した後、最適化されたパターンの作成とランク付けにおける各設定の重要性を確認し、パターンの評価をより深く理解することができます。 詳細は、 AutoAI RAG実験の作成を参照。
codellama-34b-instruct-hf 基盤モデル、オンデマンドで展開できます
3 2025年4月
codellama-34b-instruct-hf、オンデマンドの基盤モデル推論できるようになった。 詳細は 対応基盤モデル を参照。
基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
AutoAI for RAG実験の検索設定のカスタマイズ
2025年3月31日
ベクトル化されたインデックスからデータを取得する方法の設定をコントロールできるようになりました。 ウィンドウ検索法と単純検索法のどちらかを選択し、チャンク数を選択し、ウィンドウ検索法のウィンドウサイズを設定することができます。 詳細は、 AutoAI RAG設定のカスタマイズを参照。
2025年3月21日までの週
欧州言語に特化した新しいオンデマンド・デプロイメント・モデルに取り組む。 watsonx.ai
2025 年 3 月 21 日
IBM watsonx.ai から、24のヨーロッパ言語と11の国際言語に特化したオンデマンドの基盤モデル推論することができます:
- eurollm-1-7b-instruct
- eurollm-9b-instruct
価格の詳細については、 対応基盤モデル をご覧ください。 基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
llama-3-2-90b-vision-instruct 基盤モデルフランクフルト地域で販売開始
2025 年 3 月 21 日
Meta の llama-3-2-90b-vision-instruct 基盤モデル、フランクフルト地域で利用できる。
基盤モデル地域別在庫状況については、 IBM Cloud の地域別在庫状況をご覧ください。 watsonx.ai で利用可能な基盤モデル詳細については、 対応基盤モデル を参照のこと。
AutoAI 実験の入力言語を合わせる
2025年3月20日
AutoAI は、プロンプトで使用されている言語を自動的に検出し、同じ言語で応答するようモデルに指示するようになりました。 入力言語をサポートしていないモデルは、RAGパターンの検索において優先順位が低くなる。 AutoAI、利用可能なすべてのモデルを考慮し、英語のみで回答を生成したい場合は、この実験設定をオフにすることができます。 詳細は、 AutoAI RAG設定のカスタマイズを参照。
2025年3月7日までの週
フランクフルト地域からのオンデマンドおよびカスタム・ 基盤モデル導入
6 2025年3月
フランクフルトのデータセンターでホスティングされているプロジェクトの基盤モデル扱う方法が増えました。
- カスタム基盤モデルアップロードとデプロイ。
- 一般的な基盤モデルセットから選択し、組織専用に専用ハードウェア上に展開します。
もっと詳しく知りたい方は、以下の資料をお読みください:
新しいオンデマンド・デプロイ・モデルに取り組む watsonx.ai
5 2025年3月
IBM から、以下のオンデマンド基盤モデル推論できるようになりました。 watsonx.ai:
- granite-8b-japanese
- granite-20b-multilingual
- allam-1-13b-instruct
価格の詳細については、 対応基盤モデル をご覧ください。 基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
コード・スニペットが Decision Optimization の実験で利用できるようになった
5 2025年3月
experiment UIで Decision Optimization、 Python DOcplexまたはOPLモデルのコードスニペットを使用できるようになりました。 コード・スニペットを使えば、ゼロからすべての行を入力することなくコードを追加・編集できるため、モデル構築がより速くなります。
詳しくは、 モデル構築のためのコード・スニペットをご覧ください。
2025年2月28日までの週
AIサービスとしてRAG Chroma実験用に AutoAI
2025 年 2 月 27 日
AutoAI インメモリChromaデータベースを使用して作成したRAGパターンをAIサービスとして展開できるようになりました。 このデプロイメントメソッドを使用すると、RAG パターンをディプロイメント可能な資産保 存し、スペースに昇格させ、1 回の操作でデプロイメント作成できます。 その後、RAGパターンをテストし、推論エンドポイントにアクセスすることができる。
詳細については、 AutoAI による RAG パターンの自動化を参照してください。
ランタイムの削除 23.1
2025 年 2 月 27 日
watsonx.ai Runtimeおよび watsonx.ai Studioにおける IBM Runtime 23.1 のサポートは2025年4月17日に終了します。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、 IBM ランタイム 24.1 に切り替えてください。
- 環境の変更については、 ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
Granite 3.2 ダラス地域におけるインストラクターとビジョンモデルの推論
2025年2月26日
granite-3-2-8b-instruct 基盤モデル、出典の引用やハルシネーション検出など、強力な機能を備えた推論モデルである。 パフォーマンスと透明性のバランスをとるために、モデルがその思考プロセスを出力で共有するかどうかをコントロールすることができる。 このモデルは、 granite-3-2-8b-instruct-preview-rc テック・プレビュー・ 基盤モデル一般利用可能バージョンである。
granite-vision-3-2-2b 基盤モデル、企業ユースケース向けに構築された初のマルチモーダル Granite モデルである。 画像からテキストへの基盤モデル、図表、グラフなどを理解するタスクのために画像とテキストを取り込むことができる。
詳細は 対応基盤モデル を参照。
project-libライブラリの廃止
2025年2月24日
project-libライブラリーは非推奨。 ランタイム 25.1 以降、このライブラリは新しいランタイム・バージョンには含まれません。 24.1 までの既存のランタイム・バージョンは引き続き非推奨のライブラリを含みますが、 ibm-watson-studio-lib ライブラリを使用するようにコードを書き換えることを検討してください。
コードの移行方法については、こちらをご覧ください:
2025年2月21日までの週
超小型ハードウェア仕様のカスタム基盤モデルを展開
2025年2月20日
リソースを節約するために、特別に小さなハードウェア仕様でカスタム基盤モデル展開することができます。 REST API を使用してカスタム・ 基盤モデルデプロイする場合は、 hardware_request
パラメーターに gpu_xs
ハードウェア仕様を使用してください。 詳細は カスタム・ 基盤モデル デプロイメント作成する を参照。
Granite Code 30億パラメータの基盤モデル、オンデマンドで展開可能です
2025年2月20日
IBM の granite-3b-code-instruct 基盤モデル、デプロイ・オン・デマンドの基盤モデル利用できる。 詳細は 対応基盤モデル を参照。
基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
2025年2月14日までの週
推論はトロント地域からオンデマンドとカスタム基盤モデル展開する
13 2025年2月
トロント地域でホストされているプロジェクトの基盤モデル扱う方法が増えました。
- カスタム基盤モデルアップロードとデプロイ。
- 一般的な基盤モデルセットから選択し、組織専用に専用ハードウェア上に展開します。
もっと詳しく知りたい方は、以下の資料をお読みください:
IBM OpenPages の既存のホストされたデプロイメント次のように統合します。 watsonx.governance
2024年2月13日
OpenPages as a Service でデプロイされた Governance コンソールと watsonx.governance をオプションで統合することに加え、 マネージドまたは従来のオンプレミスのデプロイメントいずれかで、 IBM OpenPages, のホストされたデプロイメント watsonx.governance を統合できるようになりました。 OpenPages のホスト版との統合には、 watsonx.governance の Essentials プランが必要です。
- プランの詳細については、 IBM watsonx.governance プラン・オプションの提供を参照のこと。
- ユースケース・データを watsonx.governance と同期させる方法の詳細については、 AIのユースケースを管理するを参照してください
- 統合手順については、 watsonx.governance との統合を参照してください。
scikit-learnとXGBoostからONNX形式に変換したモデルをデプロイする
2024年2月13日
scikit-learnやXGBoostからONNX形式に変換された機械学習や生成AIモデルをデプロイし、推論用のエンドポイントを使用できるようになりました。 詳細については、 ONNX形式に変換されたモデルのデプロイを参照してください。
Granite Code の新しいオンデマンド・デプロイ・モデルに取り組む。 watsonx.ai
13 2025年2月
プログラムコードの記述、変換、修正などのコーディング作業には、 IBM の以下の Granite Code 基盤モデル使用する:
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
価格の詳細については、 対応基盤モデル をご覧ください。 基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
SPSS Modeler チュートリアル・ビデオを更新
11 2025年2月
SPSS Modeler チュートリアルの更新されたビデオを見て、 SPSS Modeler について学んでください。
2025年2月7日までの週
ダラス地域の最新 IBM Granite 基盤モデルプレビュー
2025年2月7日
ダラス地域で販売中の granite-3-2-8b-instruct-preview-rc 基盤モデルテクニカル・プレビューをお試しください。 Granite 3.2 プレビューモデルは、斬新な方法で新しい推論機能を追加する。 推論機能は設定可能である。つまり、説明情報が出力に役立つタスクに対してのみ、推論を有効にすることができる。
IBM Granite 時系列基盤モデルデータ予測は、現在一般的に利用可能である
6 2025年2月
watsonx.ai API の時系列予測メソッドを使用して、ゼロショット推論で将来の値を予測できる IBM Granite 時系列基盤モデルモデルに過去のデータ観測値を渡します。
- watsonx.ai API の予測メソッドの使用方法の詳細については、 将来のデータ値の予測を参照してください。
- 価格については、 ジェネレーティブAI 資産請求詳細 を参照。
IBM watsonx.ai はトロント地域で入手可能
6 2025年2月
Watsonx.ai は現在、トロントのデータセンターで一般的に利用可能であり、サインアップの際に希望地域としてトロントを選択することができる。 推論には提供された基盤モデルサブセットを使用し、テキスト埋め込みとパッセージの再ランク付けには埋め込みモデルを使用する。
トロント地域で利用可能な基盤モデル製品機能の詳細については、 サービスと機能の地域別利用可能性をご覧ください。
推論はシドニー地域からオンデマンドとカスタム基盤モデル展開する
6 2025年2月
シドニー地域でホストされているプロジェクトの基盤モデル扱う方法が増えました。
- カスタム基盤モデルアップロードとデプロイ。
- 一般的な基盤モデルセットから選択し、組織専用に専用ハードウェア上に展開します。
もっと詳しく知りたい方は、以下の資料をお読みください:
Mistral Large 2 オンデマンドで展開可能な基盤モデル
6 2025年2月
Mistral AI の mistral-large-instruct-2407 基盤モデル、デプロイ・オン・デマンドの基盤モデル利用できる。 このモデルにアクセスする場合は、1時間あたりの追加料金が適用されます。 価格の詳細については、 対応基盤モデル をご覧ください。
基盤モデルオンデマンド展開の詳細については、 基盤モデルオンデマンド展開 をご覧ください。
新しい DeepSeek-R1 蒸留されたモデルをオンデマンドで展開し、推論する。 watsonx.ai
3 2025年2月
IBM Cloud の watsonx.ai で、 DeepSeek-R1 モデルの蒸留バリアントをオンデマンドで展開できるようになりました。 蒸留された DeepSeek-R1 モデルのバリエーションは、 DeepSeek-R1 モデルによって生成されたトレーニングデータを使用して微調整されたラマモデルに基づいている。
詳細は 対応基盤モデル を参照。
リソースハブまたは REST API からのオンデマンドでの基盤モデルデプロイについては、 基盤モデルオンデマンド展開 を参照してください。
デフォルト・インベントリは、 資産代わります。 watsonx.governance
3 2025年2月
AIのユースケース、サードパーティのモデル、添付ファイル、レポートなど、 watsonx.governance の成果物保存するためのデフォルトのインベントリが利用できるようになった。 デフォルトのインベントリは、 ガバナンス成果物格納するためのプラットフォーム・アクセス・カタログまたは IBM Knowledge Catalog への依存を置き換えます。
詳細については、 デフォルト・インベントリの設定を参照してください。
シドニーのデータセンターで評価スタジオが利用可能
3 2025年2月
評価スタジオを使用すると、使用ケースに合った定量的な指標とカスタマイズ可能な基準で、ジェネレーティブAI 資産評価および比較できます。 複数の資産パフォーマンスを同時に評価し、結果の比較分析を見て、最適なソリューションを特定します。
詳細は 評価スタジオでAI 資産比較 を参照。
2025年1月31日までの週
新しいエージェントラボ(ベータ版)でAIエージェントをビルドしてデプロイする
2025年1月30日
エージェントラボのユーザーインターフェイスを使用することで、アプリケーションをより柔軟でダイナミックなものにするためのAIエージェントの構築と導入が可能になりました。 エージェントの設定で指定したエージェントフレームワーク、 基盤モデル、外部ツールを使用して、エージェントが意思決定を行い、タスクを実行するように構成することができます。
詳しくはエージェントラボをご覧ください。
エージェントラボを使用して watsonx.ai でエージェント型AIアプリケーションを構築すると、アプリケーションはAIサービスとしてデプロイされます。 ユーザー・インターフェースから直接ソリューションをデプロイするか、 Python の編集可能なノートブックにソリューションをエクスポートしてAIサービスをデプロイするかを選択できます。
詳細については、 AIサービスの導入を参照してください。
Mistral Large 2 、オンデマンドで導入可能な強力な新しい基盤モデル
2025年1月30日
Mistral AI の mistral-large-instruct-2411 基盤モデルモデルを、お客様の組織専用ハードウェアに導入します。 この最新の基盤モデル、 Mistral-Large-Instruct-2407 の基盤モデル モデルを改良し、長いプロンプト・コンテキスト、システム・プロンプト命令への追従、関数呼び出しの処理を改善したものである。
他のオンデマンド・デプロイ基盤モデル異なり、ホスティングされた mistral-large-instruct-2411 基盤モデルモデルにアクセスするためには、時間単位の追加料金が発生します。 価格の詳細については、 対応基盤モデル をご覧ください。
リソースハブまたは REST API からのオンデマンドでの基盤モデルデプロイについては、 基盤モデルオンデマンド展開 を参照してください。
フランクフルト地域におけるミストラル・スモール3 基盤モデル推論
2025年1月30日
Mistral AI の mistral-small-24b-instruct-2501 基盤モデルモデルが利用可能で、マルチテナント・ハードウェア上でホスティングされ、すぐに使用できる。 ミストラル・スモール3の基盤モデル、これらの機能により、チャットワークフローに最適です:
- ネイティブ関数呼び出しとJSON出力生成によるエージェント機能。
- 最先端の会話と推論能力。
- システム・プロンプトをしっかりと守り、サポートする。
- 英語、フランス語、ドイツ語、スペイン語、イタリア語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語を含む数十カ国語に対応。
詳細は 対応基盤モデル を参照。
デプロイと推論 DeepSeek-R1 で蒸留されたモデル。 watsonx.ai
2025年1月29日
強力なオープンソースの推論モデルである DeepSeek-R1 の蒸留された変種を使用して、 watsonx.ai on IBM Cloud で DeepSeek-R1
モデルを安全にデプロイして推論することができるようになり、開発者は AI を活用したソリューションの開発を加速できるようになりました。 DeepSeek-R1
モデルは、 を使ってカスタム・ watsonx.ai基盤モデルデプロイすることができる。
詳細は カスタム基盤モデル展開 を参照。
Llama 3.3 70b インストラクション・ 基盤モデル低価格化
2025年1月29日
Meta から llama-3-3-70b-instruct 基盤モデル推論する価格は、1,000トークンあたり 0.0018 ドルから 0.00071 ドルに減少した。 この価格変更は、 基盤モデル販売されているすべての地域に適用される。
詳細は 対応基盤モデル を参照。
2025年1月24日までの週
RAG実験に AutoAI
2025年1月23日
AutoAI for RAGが完全にサポートされ、アプリケーションに最適化された検索拡張生成パターンの検索を自動化できるようになりました。 このアップデートには以下の新機能が含まれている:
- サンプルデータとガイドツアーを使ってRAGの AutoAI、そのプロセスを学ぶ。
- Milvus ベクターストアを使用して実験を作成する場合、AIサービスとしてRAGパターンをデプロイできるようになったため、 デプロイメント・スペースエンドポイントにアクセスして推論を行うことができる。
詳細については、 AutoAI による RAG パターンの自動化を参照してください。
AutoAI RAG実験の実施には、以下の課金料金が発生する:
- 容量単位時間(CUH)は、実験の実行時間に対して課金される。
- リソースユニット(RU)は、実験実行中に行われたすべてのエンベッディングおよびジェネレーティブAIモデルの推論呼び出しに対して課金される。 1リソースユニット(RU)は1,000トークンに相当する。
プランの情報と請求の詳細については、 watsonx.ai ランタイムプランをご覧ください。
CPDCTLでAIサービスを展開する
2024年1月23日
Cloud Pak for Data (CPDCTL)のコマンドラインインターフェイスを使用して、AIサービスによるジェネレーティブAIソリューションをプログラムで展開できるようになりました。 CPDCTLは、 IBM Cloud Pak for Data (CPD)プラットフォーム上でAIサービスを展開・管理するためのコマンドラインツールです。 AIサービスを導入するためのシンプルで合理的な方法を提供し、手作業による設定の必要性を排除し、エラーのリスクを低減します。
詳細については、 Cloud Pak for Data Command-Line Interface(CPDCTL)を使用したAIサービスのデプロイを参照してください。
AutoAI for RAGでAIサービスを展開する
2024年1月23日
AutoAI を使用して RAG パターンを使用する生成 AI ソリューションを作成すると、 AutoAI 実験ビルダーから AI サービスとしてソリューションを直接デプロイできるようになりました。 詳しくは、 ツールでAIサービスを展開するを参照。
CatBoost および LightGBM から ONNX フォーマットに変換したモデルをデプロイする
2024年1月23日
CatBoost、 LightGBM、ONNX形式に変換された機械学習および生成AIモデルを展開し、推論にエンドポイントを使用できるようになりました。 これらのモデルはダイナミック軸にも適応できる。 詳細については、 ONNX形式に変換されたモデルのデプロイを参照してください。
人気のある基盤モデルオンデマンドで watsonx.ai
2025年1月22日
現在、ダラス地域の専用ハードウェア上に以下の基盤モデル展開し、お客様の組織専用とすることができます:
- llama-3-1-70b-instruct
- granite-7b-lab
価格やサポートされるコンテキストウィンドウの長さなど、これらのモデルの詳細については、 オンデマンド基盤モデル展開 を参照してください。
リソースハブまたは REST API からのオンデマンドでの基盤モデルデプロイについては、 基盤モデルオンデマンド展開 を参照してください。
ラマ・ 基盤モデルいくつかのモデルが、より多くの地域でご利用いただけるようになりました
2025年1月22日
Meta の以下の基盤モデル、より多くの地域でご利用いただけます:
- llama-3-3-70b-instruct: ダラスとフランクフルトに加え、東京とロンドンからも利用できるようになった。
- llama-3-2-11b-vision-instruct: ダラス、東京、シドニーに加え、フランクフルトとロンドンからも利用できるようになった。
基盤モデル地域別在庫状況については、 IBM Cloud の地域別在庫状況をご覧ください。
Llama 3.1 Instruct 70b と 8b の基盤モデル非推奨です
2025年1月22日
Meta の以下の基盤モデル非推奨である。 これらの基盤モデル使用しているプロンプトを修正する。
llama-3-1-70b-instruct
- 廃止日:2025年1月22日
- 脱退日:2025年5月30日
- 代替モデル: llama-3-3-70b-instruct または llama-3-2-90b-vision-instruct
llama-3-1-8b-instruct
- 廃止日:2025年1月22日
- 脱退日:2025年5月30日
- 代替モデル: llama-3-2-11b-vision-instruct
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。 代替モデルの詳細については、 対応基盤モデル を参照のこと。
これらの基盤モデル作業を続けたい場合は、オンデマンドで専用モデルを配備することができます。 詳細は オンデマンド基盤モデル展開 を参照。
2025年1月17日までの週
IBM Granite 、新しい埋め込みモデルを使用する。 watsonx.ai
2025年1月16日
IBM で提供されている Granite 埋め込みモデルを使用することができます。 watsonx.ai:
- granite-embedding-107m-multilingual
- granite-embedding-278m-multilingual
新しい埋め込みモデルを使って、多言語のクエリー、パッセージ、ドキュメントの形の入力に対して、高品質のテキスト埋め込みを生成します。 詳しくは、 対応エンコーダモデルとベクトル化テキストをご覧ください。
Granite ガーディアンのモデルに変更が加えられた
2025年1月16日
現在、ダラスとシドニーのデータセンター watsonx.ai の IBM から、 Granite ガーディアンの基盤モデル最新バージョンを推論することができます。
モデルの最新バージョン( 3.1 )は、128,000トークンのコンテキスト長をサポートし、 ハルシネーション脱獄に関連するリスクに対する性能を向上させるために、追加の合成データで訓練されるようになった。 詳細は 対応基盤モデル を参照。
granite-20b-multilingual と codellama-34b-instruct-hf の基盤モデル廃止されました
2025年1月15日
以下の基盤モデル非推奨である。 これらの基盤モデル使用しているプロンプトを修正する。
granite-20b-multilingual
- 廃止日:2025年1月15日
- 脱退日:2025年4月16日
- 代替モデル: granite-3-8b-instruct
codellama-34b-instruct-hf
- 廃止日:2025年1月15日
- 脱退日:2025年3月31日
- 代替モデル: llama-3-3-70b-instruct
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。 代替モデルの詳細については、 対応基盤モデル を参照のこと。
カスタム・ 基盤モデル展開に利用可能な新しいモデル・アーキテクチャ
2024年1月15日
以下のアーキテクチャを持つカスタム・ 基盤モデル watsonx.ai:
exaone
gemma
gemma2
granite
mt5
nemotron
olmo
persimmon
phi
phi3
qwen
qwen2
詳細は カスタム・ 基盤モデル導入計画 を参照。
AutoAI RAG実験のベータは2025年1月23日に終了
2025年1月13日
ベータフェーズの終了後、 AutoAI RAG実験を実行すると、以下のように課金料金が発生する:
- 容量単位時間(CUH)は、実験の実行時間に対して課金される。
- リソースユニット(RU)は、 グラウンディング文書の埋め込みと生成AIモデルの推論に使用される。 1リソースユニット(RU)は1,000トークンに相当する。
プランの情報と請求の詳細については、 watsonx.ai ランタイムプランをご覧ください。
2024年12月20日までの週
ONNX形式に変換されたモデルをデプロイする
2024年12月20日
ONNX形式に変換された機械学習や生成AIモデルを展開し、推論にエンドポイントを使用できるようになりました。 これらのモデルはダイナミック軸にも適応できる。 詳細については、 ONNX形式に変換されたモデルのデプロイを参照してください。
マルチソース SPSS Modeler フローの展開
2024年12月20日
モデルにデータを提供するために複数の入力ストリームを使用する SPSS Modeler フロー用のデプロイメント作成できるようになりました。 詳細については、 マルチソース SPSS Modeler フローの展開を参照してください。
2024年12月13日までの週
Granite 3 インストラクター・ 基盤モデル変更点を紹介する
13 2024年12月
以下の IBM 基盤モデルモデルに修正を加えた:
- granite-3-2b-instruct
- granite-3-8b-instruct
最新の修正により、 Granite 3.1 インストラクターの基盤モデル、エージェントのタスクと固有機能のコーディングをより良くサポートするようになった。 これらの基盤モデルサポートされるコンテキストウィンドウの長さは、4,096トークンから131,072トークンに増加した。 Granite インストラクターモデルのモデルIDは同じままだが、モデルの重みは更新される。
詳細は 対応基盤モデル を参照。
AutoAI (ベータ版)でRAGパターンを検索するノーコード・ソリューション
2024年12月12日
AutoAI ユーザーインターフェースから、ユースケースに最適なRAGパターンの検索を自動化できるようになりました。 文書コレクションとテスト問題をロードし、ベクトルデータベースを選択し、RAGパターンを見つけるための高速パスアプローチの実験を実行します。 また、実験のコンフィギュレーション設定を確認し、変更することもできます。 実験によって生成されたパターンを比較し、最良のパターンを自動生成ノートブックまたはプロジェクトに保存されたノートブックとして保存する。
詳細については、 AutoAI による RAG パターンの自動化を参照してください。
テンプレートを使ってAIサービスを展開する
2024年12月12日
事前に定義されたテンプレートを使用して、AIサービスを展開することができます。 AIサービステンプレートは、AIモデルをデプロイするための定義済みの構造と構成を提供することで、AIサービスをデプロイする標準化された方法を提供する。 これらのテンプレートは、ジェネレーティブAIアプリケーションのプログラミング・ロジックをカプセル化した、あらかじめ構築された展開可能なコード単位である。
AIサービステンプレートは、 デプロイメント作成、メタデータの生成、エクステンションの構築などのタスクを自動化し、開発者がアプリケーションのコアロジックに集中できるようにする。 AIサービスを展開する柔軟な方法を提供し、複数の入力とカスタマイズをサポートする。
詳しくは、 テンプレートを使ったAIサービスのデプロイをご覧ください。
最新のLlama 基盤モデルオンデマンドで導入可能
2024年12月12日
Meta Llama 3.3 70B Instruct多言語基盤モデル、組織専用の専用ハードウェアに展開することができます。 Meta 、最新の基盤モデル、より大きな llama-3-405b-instruct ・モデルと同様の機能を持つが、サイズはより小さく、特にコーディング、ステップバイステップの推論、ツール・コールに長けている。 フルモデル ( llama-3-3-70b-instruct-hf ) または、ホスティングに必要なリソースが少ない量子化バージョン ( llama-3-3-70b-instruct ) をデプロイすることができます。
リソースハブまたは REST API からのオンデマンドでの基盤モデルデプロイについては、 基盤モデルオンデマンド展開 を参照してください。
Python クライアント・ライブラリを使用して、 基盤モデルオンデマンドでデプロイする
2024年12月12日
watsonx.ai Python クライアント・ライブラリを使用することで、 基盤モデルオンデマンドでデプロイできるようになりました。 このアプローチを使用することで、大規模な計算リソースを必要とせずに、これらの強力な基盤モデル機能にアクセスすることができます。 オンデマンドでデプロイされた 基盤モデル、専用のデプロイメント・スペースホストされ、推論に使用することができます。
詳細は 基盤モデルオンデマンド展開 を参照。
SPSS Modeler チュートリアルを更新
11 2024年12月
15 の更新された SPSS Modeler チュートリアルを試して、 SPSS Modeler を実際に体験してください。
評価スタジオでAI 資産比較
2024年12月12日
評価スタジオを使用すると、使用ケースに合った定量的な指標とカスタマイズ可能な基準で、ジェネレーティブAI 資産評価および比較できます。 複数の資産パフォーマンスを同時に評価し、結果の比較分析を見て、最適なソリューションを特定します。
詳細は 評価スタジオでAI 資産比較 を参照。
ガバナンス・コンソールの強化
2024年12月12日
- watsonx.governance モデルリスク・ガバナンス・ソリューションの強化
このリリースには以下の機能強化が含まれている:
- 新しいAI Model Onboarding Risk Identification質問表テンプレートは、モデルのオンボーディングプロセスで使用され、モデルに関連するリスクを特定するのに役立ちます。 このアンケートテンプレートは、 基盤モデルワークフローで使用されます。
- 新しい「AIユースケースリスク特定」質問表テンプレートは、AIユースケースに関連するリスクを特定するために使用される。 このアンケートテンプレートは、ユースケースレビューのワークフローで使用されます。 この新しい質問票は、AIリスク識別質問票に代わるものである
- 新しい「AIユースケースとモデルのリスク特定」質問表テンプレートは、AIユースケースとモデルの組み合わせに関連するリスクを特定するのに役立つ。 このアンケートテンプレートは、ユースケースの開発と文書化のワークフローで使用されます。
- AIアセスメントワークフローがデフォルトで無効になりました。 このワークフローは、質問票評価ワークフローに置き換えられます。 ユースケースワークフローでアンケートテンプレートを直接設定できるようになりました。
- ワークフロー、ビュー、ダッシュボードが更新された。
詳細については、 Governance コンソールのソリューション コンポーネントを参照してください。
- バグ修正とセキュリティ修正
バグフィックスとセキュリティフィックスが適用された。
詳しくは、 9.0.0.5 の新機能をご覧ください。
IBM watsonx.governance はシドニー地区で利用可能
2024 年 12 月 9 日
IBM watsonx.governance は現在、シドニーのデータセンターで一般的に利用できる。 ご登録の際、ご希望の地域にシドニーをお選びいただけます。
シドニー地域で利用可能な製品機能の詳細については、 サービスおよび機能の地域別利用可能性をご覧ください。
2024年12月6日までの週
基盤モデルダラス地域にオンデマンドで展開
6 2024年12月
厳選された基盤モデルコレクションから選択し、組織専用のハードウェアに導入することができます。 専用のデプロイメント、 基盤モデル推論する際に、より応答性の高いインタラクションを意味する。 オンデマンド基盤モデルデプロイは、時間単位で課金されます。 詳しくは 対応基盤モデル と ジェネレーティブAI 資産請求詳細 を参照のこと。
リソースハブまたは REST API からのオンデマンドでの基盤モデルデプロイについては、 基盤モデルオンデマンド展開 を参照してください。
ダラスとフランクフルト地域の Meta 、最新のラマ基盤モデル推論する
6 2024年12月
Meta Llama 3.3 70B インストラクターの多言語基盤モデル、ダラスとフランクフルトの両地域で統合可能。 llama-3-3-70b-instruct 基盤モデルモデルは、コーディング、ステップバイステップの推論、ツール呼び出しに長けている。 405b モデルに匹敵するパフォーマンスを持つ Llama 3.3 基盤モデルアップデートは、開発者にとって素晴らしい選択である。 IBM から お知らせ を参照。
詳細は 対応基盤モデル を参照。
基盤モデル比較するためにベンチマークを見直す
5 2024年12月
基盤モデルベンチマークを確認し、利用可能な基盤モデル能力を試してから学ぶ。 あなたのユースケースにとって最も重要なタスクについて、様々な基盤モデルどのように機能するかを比較する。 詳細は 基盤モデルベンチマーク を参照。
のOPLモデルでは、Microsoft Excelファイルは非推奨です。 Decision Optimization
5 2024年12月
Microsoft Excelワークブック(.xlsおよび.xlsx)ファイルは、 Decision Optimization OPLモデルでの直接入出力は非推奨となりました。 Excelファイルに接続するには、代わりにデータ・コネクタを使用します。 データコネクターはExcelファイルを.csvファイルに変換します。 詳しくは参照データを参照。
ONNX形式に変換されたモデルを展開するための新しいサンプルノートブック
3 2024年12月
ONNX形式に変換された機械学習や生成AIモデルを展開し、推論にエンドポイントを使用できるようになりました。 これらのモデルはダイナミック軸にも適応できる。 以下のサンプルノートブックをご覧ください:
- ONNXニューラルネットワークを固定軸から動的軸に変換する
- から変換したONNXモデルを使用する。 PyTorch
- TensorFlow から変換した ONNX モデルを使用して、手書きの数字を認識する。
詳細については、 watsonx.ai Runtime Python クライアントのサンプルと例を参照してください。
llama-3-8b-instruct と llama-3-70b-instruct の基盤モデル廃止されました
2024 年 12 月 2 日
以下の基盤モデル非推奨である。 これらの基盤モデル使用しているプロンプトを修正する。
llama-3-8b-instruct
- 償却開始日:2024年12月2日
- 脱退日:2025年2月3日
- 代替モデル: llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
llama-3-70b-instruct
- 償却開始日:2024年12月2日
- 脱退日:2025年2月3日(シドニーでは2025年3月31日)
- 代替モデル: llama-3-1-70b-instruct, llama-3-2-90b-vision-instruct
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。 代替モデルの詳細については、 対応基盤モデル を参照のこと。
2024年11月29日までの週
の書き込みオプションに関するドキュメントを改善した。 Data Refinery
2024年11月28日
データ・フローをエクスポートするための書き込みオプションとテーブル・ オプションは、接続によって異なります。 これらのオプションについて説明するので、ターゲット・テーブルのオプションを選択する際の参考にしてほしい。 詳細については、 Data Refinery のターゲット接続オプションを参照してください。
2024年11月22日までの週
新しい watsonx デベロッパー・ハブでコーディングを素早く始めよう
2024年10月21日
新しいデベロッパー・ハブで、ジェネレーティブAIソリューションのコーディングに必要なあらゆるものを見つけてください:
- watsonx.ai で基礎モデルを推論するための最初の API 要求を作成します。
- AI アプリケーションに最適な基盤モデルとコード・ライブラリを見つけます。
- watsonx.ai の機能を理解し、Curl、 Node.js、または Python のコード・スニペットをコピーする。
- ジェネレーティブAIのアプリケーションとソリューションの構築方法を、詳細なガイドで学びましょう。
- コミュニティに参加して、リソースや回答を見つけたり、他のユーザーと交流したりしましょう。
watsonx Developer Hubにアクセスしてください。
IBM watsonx.ai のコンポーネント・サービスの名称が変更された
2024年11月21日
以下のサービスが名称変更された:
- Watson Machine Learning の名称は ランタイムに変更された。 watsonx.ai
- Watson Studio 現在は スタジオ watsonx.ai
ビデオ、ノートブック、コードサンプルの中には、これらのサービスを以前の名前で紹介し続けるものもあるかもしれない。
IBM watsonx.ai はシドニー地区で利用可能
2024年11月21日
Watsonx.ai は現在、シドニー・データセンターで一般的に利用可能であり、契約時に希望地域としてシドニーを選択することができる。
シドニー地域で利用可能な基盤モデルおよび製品機能の詳細については、 サービスおよび機能の地域別提供状況をご覧ください。
IBM Granite 時系列基盤モデルモデルと watsonx.ai API を使って将来の値を予測する(ベータ版)
2024年11月21日
時系列APIを使用して、ゼロショット推論で将来の値を予測できる IBM Granite 時系列基盤モデルモデルに過去のデータ観測値を渡します。 watsonx.ai API の時系列予測メソッドは、ベータ機能として利用できる。 詳細については、 将来のデータ値の予測を参照。
Elasticsearch 推論 API の watsonx.ai テキスト埋め込みモデルを使用する
2024年11月21日
Elasticsearch バージョン 8.16.0 リリースでは、テキスト埋め込みタスクのために watsonx.ai 基盤モデル使用する推論エンドポイントを作成するためのサポートが追加された。
詳しくは APIを使ったテキストのベクトル化をご覧ください。
SPSS Modeler デプロイメント・スペース流れを促進する
2024年11月19日
プロジェクトをエクスポートしてからデプロイメント・スペースインポートしなくても、 SPSS Modeler フローをプロジェクトからデプロイメント・スペース直接プロモートできるようになりました。 詳しくは、 SPSS Modeler フローとモデルの推進を参照。
2024年11月15日までの週
IBM watsonx.ai デモチャットアプリは、アカウントをリンクすることで、トライアル制限なしでご利用いただけます
2024年11月15日
IBM watsonx.ai デモアカウントを IBM Cloud watsonx.ai 有料アカウントにリンクすることで、トークンの使用や時間制限なしにチャットアプリをご利用いただけます。 詳細については、 IBM watsonx.ai デモアカウントと watsonx.ai アカウントのリンクを参照してください。
watsonx.ai Node.js。 LangChain
2024年11月11日
watsonx.ai Node.js パッケージは LangChain JavaScript コミュニティ・ライブラリから利用できる。 この統合は、 基盤モデル推論、テキストの埋め込み生成、画像からテキストへの変換やツール呼び出し機能を含むチャット交換の処理など、 watsonx.ai の機能をサポートしている。 LangChain との統合により、プロバイダー間で提供されるサービスを比較し、ニーズに最適なソリューションを見つけるための交換を容易にする一貫したインターフェイスを使用して、これらの watsonx.ai 機能を呼び出すことができます。
詳しくは、 Node.js SDKをご覧ください。
資産配置し、 デプロイメント・スペースジョブを実行するには、タスク認証情報が必要になりました
2024年11月11日
デプロイメント・ジョブ実行する際のセキュリティを向上させるため、 デプロイメント・スペース 次の資産配置するには、タスクの資格情報を入力する必要があります:
- プロンプト・テンプレート
- AI サービス
- モデル
- Python 関数
- スクリプト
さらに、 デプロイメント・スペース次のデプロイメント作成するには、タスク資格情報を入力する必要があります:
- オンライン
- バッチ
また、 デプロイメント・スペース デプロイメント・ジョブ作成および管理するには、タスク資格情 報を使用する必要があります。
タスクのクレデンシャルを設定して API キーを生成する方法については、 タスクのクレデンシャルを追加するを参照してください。
2024年11月8日までの週
AIサービスによる生成的AIアプリケーションの展開
7 2024年11月
watsonx.ai、アプリケーションのデプロイにAIサービスを利用できるようになった。 AIサービスは、ジェネレーティブAIのユースケースのロジックをキャプチャするために使用できる、デプロイ可能なコード単位である。 Python 関数は機械学習資産デプロイする伝統的な方法だが、AIサービスはストリーミングのような生成的AIアプリケーションのコードをデプロイする、より柔軟なオプションを提供する。 AIサービスが正常にデプロイされたら、アプリケーションからの推論にエンドポイントを使用できます。
詳細については、 AIサービスの導入を参照してください。
granite-13b-chat-v2、 llama2-13b-dpo-v7、 mt0-xxl-13b の基盤モデルモデルは非推奨です
4 2024年11月
- 以下の基盤モデル非推奨である。 これらの基盤モデル使用しているプロンプトを修正する。
granite-13b-chat-v2
- 償却開始日:2024年11月4日
- 脱退日:2025年2月3日
- 代替モデル: granite-3-8b-instruct
llama2-13b-dpo-v7
- 償却開始日:2024年11月4日
- 脱退日:2024年12月4日
- 代替モデル: llama-3-1-8b-instruct
mt0-xxl-13b
- 償却開始日:2024年11月4日
- 脱退日:2024年12月4日
- 代替モデル llama-3-1-8b-instruct, llama-3-2-11b-vision-instruct
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。 代替モデルの詳細については、 対応基盤モデル を参照のこと。
2024年11月1日までの週
新しいサードパーティ all-minilm-l6-v2 のエンベッディング・モデルが利用可能になった。 watsonx.ai
2024年10月29日
オープンソースの自然言語処理(NLP)およびコンピュータビジョン(CV)コミュニティによる all-minilm-l6-v2 テキスト埋め込みモデルが、 watsonx.ai API のテキスト埋め込みメソッドから利用できるようになりました。 このモデルを使用して、テキストをテキストマッチングや検索タスクで使用するのに適したテキスト埋め込みベクトルに変換する。 モデルの詳細については、以下のトピックを参照してください:
Mistral Large 基盤モデル推論するための低価格
2024年10月29日
Mistral Large 基盤モデル提出するインプットの価格は、1,000 トークンあたり 0.01 ドルから 0.003 ドルに引き下げられた。 基盤モデル生成されるアウトプットの価格は変わらず、アウトプットのトークンの価格は$ 0.01 USD/1,000 トークンのままである。 この価格変更は、 mistral-large 基盤モデル利用可能なすべての地域に適用される。
詳細は 対応基盤モデル を参照。
IBM ランタイムの廃止 23.1
2024年10月28日
IBM ランタイム は非推奨。 23.1 2024年11月21日以降、 23.1 ランタイムを使用して新しいノートブックやカスタム環境を作成することはできません。 また、 23.1 ランタイムをベースとするソフトウェア仕様で新しいデプロイメント作成することはできません。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、 IBM ランタイム 24.1 に切り替えてください。
- 環境の変更については、 ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
テキスト抽出APIで複雑なビジネス文書を簡素化
2024年10月28日
テキスト抽出メソッドは、 watsonx.ai REST APIで一般的に利用できるようになりました。 IBM が開発した文書理解テクノロジーを活用して、複雑なビジネス文書を簡素化し、生成的AIワークフローの一部として基盤モデル処理できるようにします。 テキスト抽出APIは基盤モデル 画像、ダイアグラム、表などの文書構造からテキストを抽出する。 詳しくは、 文書からテキストを抽出するを参照してください。
APIは有料プランのユーザーであれば、すべての地域で利用できる。 料金の詳細については、 ドキュメントテキスト抽出料金表をご覧ください。
2024年10月25日までの週
Decision Optimization 実験のテーブルを比較し、シナリオ間の違いを確認する
2024年10月23日
Prepare data または Explore solution ビューのいずれかで、 Decision Optimization 実験のテーブルを比較できるようになりました。 この比較は、隣り合わせに表示されたシナリオ間のデータ値の違いを見るのに便利である。
詳しくは、 シナリオ表の比較を参照。
Granite 3.0 の新モデルが登場。 watsonx.ai
2024年10月21日
3.0 Granite IBM から提供される以下の世代の基盤モデル推論できるようになった。 watsonx.ai:
- Granite 全地域のモデルをインストラクト要約、問題解決、テキスト翻訳、推論、コーディング、関数呼び出しタスクなどのタスクに、新しいインストラクトチューニングされた軽量でオープンソースの言語モデルを使用します。 以下のモデルバリエーションに対応:
- granite-3-2b-instruct
- granite-3-8b-instruct
- Granite ダラス地域のガーディアンモデル新しい ガーディアンモデルを使用してください。これは、プロンプトとレスポンスからリスクを検出するように設計された、 Granite ファイン・チューニング Granite インストラクターモデルです。 以下のモデルバリエーションに対応:
- granite-guardian-3-2b
- granite-guardian-3-8b
詳細は 対応基盤モデル を参照。
テキスト再ランクAPIで検索タスクを強化
2024年10月21日
テキストの再ランク・メソッドは、一般的に watsonx.ai REST API で利用できる。 この新しいAPIメソッドを、新しくサポートされた ms-marco-minilm-l-12-v2 モデルのようなリランカー 基盤モデルモデルと一緒に使って、指定されたクエリー類似性に基づいて、一連の文書パッセージを並べ替える。 再ランク付けは、回答検索のワークフローに精度を追加する便利な方法です。 詳しくは、 文書のパッセージの再ランク付けを参照のこと。
ピクストラルの新モデル 12B がフランクフルトとロンドン地区で販売開始
2024年10月21日
フランクフルトとロンドンのデータセンター watsonx.ai 上で、Mistral AI の Pixtral 12B 基盤モデルモデルを使用できるようになりました。
Pixtral 12B は、画像とテキストをインターリーブしたデータで学習された、画像からテキスト、テキストからテキストという機能を持つネイティブのマルチモーダルモデルです。 基盤モデル、可変の画像サイズをサポートし、指示に従う作業を得意とする。 詳細は 対応基盤モデル を参照。
2024年10月18日までの週
アカウント・リソース・スコープはデフォルトで有効
2024年10月17日
アカウントの Resource scope
設定は、デフォルトで ON
に設定されています。 ただし、以前にリソース・スコープの設定値を ON
または OFF
のいずれかに設定した場合、現在の設定は変更されない。
リソース スコープが有効な場合、現在選択されている IBM Cloud アカウントにないプロジェクトにはアクセスできません。 複数の IBM Cloud アカウントに所属している場合、すべてのプロジェクトが一緒に表示されないことがあります。 例えば、「 すべてのプロジェクト 」ページにすべてのプロジェクトが表示されないことがあります。 他のアカウントのプロジェクトを見るには、アカウントを切り替える必要があります。
フランクフルト地域では、 Granite コード・ 基盤モデル利用できる
2024年10月15日
IBM の granite-20b-code-instruct 基盤モデル、コーディング関連の指示に対応するように設計されている。 フランクフルトのデータセンターでホスティングされているプロジェクトでは、コーディング作業やコーディングアシスタントの構築に役立つ基盤モデル使用できます。 モデルの詳細については、 対応基盤モデル を参照。
2024年10月11日までの週
新しいライセンス特典
2024年10月10日
BYOL(Bring Your Own License)により、オンプレミスライセンスのメリットを IBM watsonx.ai および IBM watsonx.governance に適用できるようになりました。
詳細については、 SaaS への Bring Your Own License (BYOL) のアクティブ化」を参照してください。
テキストアナリティクスで日本語テキストデータを SPSS Modeler で分析する
9 2024年10月
テキストリンク分析ノードやテキストマイニングノードなど、 SPSS Modeler のテキスト分析ノードを使用して、日本語で書かれたテキストデータを分析できるようになりました。
watsonx.ai チャット API を使用した会話型ワークフローの構築
2024年10月8日
watsonx.ai チャットAPIを使用して、サードパーティのツールやサービスへのエージェント主導の呼び出しを含む生成的AI機能をアプリケーションに追加します。
詳しくは、以下のトピックを参照してください。
カスタム・ 基盤モデルための新しいソフトウェア仕様
2024年10月7日
カスタム・ 基盤モデル デプロイメント、新しいソフトウェア仕様 watsonx-cfm-caikit-1.1
を使用できるようになりました。 この仕様は vLLM ライブラリに基づいており、最新のデコーダのみの大規模言語モデルに適している。 vLLM ライブラリーの詳細については、 vLLM を参照のこと。カスタム・ 基盤モデル仕様の使用については、 カスタム・ 基盤モデル導入計画 を参照のこと。
granite-7b-lab と llama3-llava-next-8b-hf の基盤モデル廃止されました
2024年10月7日
granite-7b-lab 基盤モデルモデルは非推奨であり、2025年1月7日に廃止れる。 この基盤モデル使用しているすべてのプロンプトを修正する。
- 償却開始日:2024年10月7日
- 脱退日:2025年1月7日
- 代替モデル: granite-3-8b-instruct
llama3-llava-next-8b-hf マルチモーダル基盤モデル非推奨であり、2024年11月7日に廃止れる。 新しくリリースされた Llama 3.2 ビジョンモデルのいずれかを、画像からテキストへの生成タスクに使用できるようになりました。
- 償却開始日:2024年10月7日
- 脱退日:2024年11月7日
- 代替モデル: llama-3-2-11b-vision-instruct
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。 代替モデルの詳細については、 対応基盤モデル を参照のこと。
2024年10月4日までの週
更新された環境とソフトウェア仕様
3 2024年10月
IBM Runtime 23.1 に含まれている Tensorflow と Keras ライブラリが新しいバージョンに更新されました。 これは、ノートブックでのコードの実行方法に影響を与えるかもしれない。 詳細については、 watsonx.ai Studio(旧 Watson Studio )ランタイムに含まれるライブラリ・パッケージを参照のこと。
ランタイム 23.1 は今年中に廃止され、 IBM ランタイム 24.1 に切り替わる。 度重なる混乱を避けるため、今すぐ IBM Runtime 24.1 に切り替え、 デプロイメント関連するソフトウェア仕様を使用することをお勧めします。
- 環境の変更については、 ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
フランクフルト地域における watsonx.governance プランの利用可能性と OpenScale レガシー・プランの廃止
3 2024年10月
watsonx.governance、フランクフルト地域で Watson OpenScale。 IBM Watson OpenScale は、新規サブスクリプションや新規インスタンスのプロビジョニングには利用できなくなります。 OpenScale、フランクフルトとダラスで利用可能な watsonx.governance Essentialsプランに加入する。
- プランの詳細を見るには watsonx.governance プランをご覧ください。
- 開始するには、 watsonx.governance 設定」を参照してください。
注記:
- 既存のレガシープランインスタンスは、サポート終了日(未定)まで引き続き運用され、サポートされます。
- IBM Watson OpenScale をご利用の既存のお客様は、引き続き IBM Watson OpenScale を使用してサポートチケットを開くことができます。
2024年9月27日までの週
Llama 3.2 マルチモーダル 11B、 90B モデルを含む基盤モデル利用可能
2024年9月25日
本日のリリースにより、 Meta AIの以下の基盤モデルダラス地域から利用可能となる:
- Llama 3.2 インストラクター・モデル
- 大容量入力(128,000トークン・コンテキスト・ウィンドウ長)をサポートし、 1B、 3B パラメータ・サイズでモバイル・デバイスに収まるほど軽量かつ効率的な汎用大規模言語モデル。 これらのモデルを使用して、高度にパーソナライズされたオンデバイス・エージェントを構築することができます。
- Llama 3.2 ビジョンモデル
- 文書レベルの理解、図表の解釈、画像のキャプション付けなど、画像イン、テキストアウトのユースケースのために構築された、微調整されたモデル。
- ラマガードビジョンモデル
- 有害なコンテンツをフィルタリングするために設計された強力なガードレールモデル。
詳細は 対応基盤モデル を参照。
ガバナンス・コンソールの強化
2024年9月25日
このリリースには機能強化とバグ修正が含まれています。
- ダッシュボードのカスタムタブ
ダッシュボードにカスタムタブを3つまで表示できるようになりました。
- 積み重ね棒グラフ
ダッシュボードおよびビュー デザイナーで積み上げ棒グラフを設定できるようになりました。
- 式を使用して、アンケートの回答者の回答に基づいてフィールド値を設定する
フィールドの値に式を入力できるようになった。 例えば、現在の日付に
[$TODAY$]
、サインオンしたユーザーの名前に[$END_USER$]
、オブジェクトのDescriptionフィールドの値にフィールドを設定するには[$System Fields:Description$]
。- watsonx.governance モデルリスク・ガバナンス・ソリューションの強化
このリリースには以下の機能強化が含まれている:
- 新しいモデルグループオブジェクトタイプは、類似したモデルをグループ化する方法を提供します。 例えば、ビジネス上の問題を解決するために同じようなアプローチを使用するモデルのバージョンは、モデルグループに属するかもしれません。
- 新しいユースケース・リスク・スコアリングの計算では、ユースケースの基本的なモデルがどのように機能しているかを全体的に把握するために、違反ステータスごとのメトリクスをリスク・スコアに集約します。
- 新しいDiscovered AIライブラリ・ビジネス・エンティティは、組織内で公認されたガバナンス・プラクティスに従っていないAI(「シャドーAI」とも呼ばれる)のデプロイメント保存するデフォルトの場所を提供する。
- ワークフロー、ビュー、ダッシュボードが更新された。
詳細については、 Governance コンソールのソリューション コンポーネントを参照してください。
- バグ修正とセキュリティ修正
バグフィックスとセキュリティフィックスが適用された。
詳しくは、 9.0.0.4 の新機能をご覧ください。
AutoAI SDK(ベータ版)でRAGパターンを自動化する
2024年9月23日
AutoAI Python SDK を使用して、データとユースケースに基づいて最適化された 検索拡張生成 (RAG) パターンの設計とデプロイメント自動化し、高速化します。 RAGには、どの大規模言語モデルを選択するか、 グラウンディング文書をどのようにチャンクするか、どれだけの文書を検索するかなど、多くの設定パラメータが用意されている。 AutoAI は、制約のある設定オプションの完全な探索と評価を自動化し、最適化メトリックに対する性能でランク付けされたパターンパイプラインのセットを生成します。
AutoAI RAG実験をコーディングするための機能の詳細と使用上の注意については、 AutoAI SDK(Beta)でRAGパターンを自動化するを参照してください。
Spark 3.3 ランタイムの削除
2024年9月23日
IBM Analytics Engine の Spark 3.3 ランタイムのサポートは2024年10月29日までに削除され、デフォルトのバージョンは Spark 3.4 ランタイムに変更されます。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、Spark 3.4 に切り替えてください。
2024年10月29日以降、Spark 3.3 ランタイムを使用してノートブックやカスタム環境を作成、実行することはできません。 また、Spark 3.3 ランタイムに基づくソフトウェア仕様でデプロイメント作成または実行することはできません。
- インスタンスを Spark 3.4 にアップグレードするには、 インスタンスのデフォルトランタイムの置き換えを参照してください。
- 利用可能なノートブック環境の詳細については、 ノートブックの環境を変更するを参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
2024年9月20日までの週
マルチモーダル基盤モデル推論 Prompt Lab
2024年9月19日
Prompt Lab で画像を追加し、チャットモードでマルチモーダル基盤モデルプロンプトして画像についてチャットできるようになりました。 ドキュメントのグラウンディング、画像をアップロードし、画像のビジュアルコンテンツについて、画像からテキストへのタスクをサポートする基盤モデルモデルに質問できるようになりました。 詳しくは、 文書や画像を使ったチャットをご覧ください。
ダラス地区で llama3-llava-next-8b-hf の新モデルを発売
2024年9月19日
IBM watsonx.ai の新しい llama3-llava-next-8b-hf マルチモーダル基盤モデル使用して、画像からテキストへの作業を支援できるようになりました。
Large Language and Vision Assistant ( LLaVa ) は、マルチモーダル・チャットボットのユースケースのために、事前学習された大規模言語モデルと事前学習された視覚エンコーダを組み合わせたものです。 LLaVA NeXT Llama3 は、より多様で高品質な画像データとテキストデータで学習される。 詳細は 対応基盤モデル を参照。
watsonx.ai Node.js SDKを使用して、ジェネレーティブAIアプリケーションをコーディングする
2024年9月18日
watsonx.ai Node.js パッケージを使用して、 IBM watsonx as a Service の基盤モデルプログラムで推論し、調整する。 詳しくは、 Node.js SDKをご覧ください。
基盤モデルモデルの知的財産補償方針を理解する
2024年9月18日
これで、 IBM 知的財産補償ポリシーについての理解が深まり、どの基盤モデルモデルに知的財産補償が適用されるかを watsonx.ai で確認することができます。 詳しくは、 モデルタイプと知財補償を参照のこと。
2024年9月13日までの週
デプロイメント・スペース SPSS Modeler フローのバッチジョブを作成する
2024年9月10日
デプロイメント・スペース SPSS Modeler フローのバッチ ジョブを作成できるようになりました。 フローでは、フローからジョブ作成するたびに、実行するターミナルノードを柔軟に決定できます。 フローにバッチジョブをスケジュールすると、 ジョブフローで指定したデータソースと出力ターゲットを使用します。 これらのデータ ソースとデータ出力のマッピングは、データ ソースとデータ ターゲットがデプロイメント・スペースあれば自動的に行われます。 フローからバッチジョブを作成する方法については、 SPSS Modeler フロー用のデプロイメント・ジョブ作成 を参照してください。
デプロイメント・スペースフローとモデルの詳細については、 「 SPSS Modeler フローとモデルを配置する 」を参照してください。
2024年9月6日までの週
ダラス地域の watsonx.ai、独自の基盤モデル推論に持ち込む
3 2024年9月
IBM によってキュレートされた基盤モデル使用することに加え、独自の基盤モデルアップロードして展開できるようになりました。 モデルがデプロイされ、 watsonx.ai に登録された後、プログラムまたは Prompt Lab からカスタムモデルを推論するプロンプトを作成する。 この機能はダラス地区でのみ利用可能。
カスタム基盤モデルアップロードの詳細については、 カスタム基盤モデル展開 を参照してください。 カスタム・ 基盤モデルプラン情報と請求の詳細については、 watsonx.ai ランタイムプランをご覧ください。
文書テキスト抽出APIで複雑なビジネス文書を簡素化
3 2024年9月
IBM が開発した文書理解テクノロジーを適用して、複雑なビジネス文書を簡素化し、生成的AIワークフローの一部として基盤モデル処理できるようにします。 文書テキスト抽出APIは基盤モデル 画像、ダイアグラム、表などの文書構造からテキストを抽出する。 watsonx.ai REST APIのテキスト抽出方法はベータ機能です。
詳しくは、 文書からテキストを抽出するを参照してください。
Granite コード基盤モデル修正とアップデートが可能
3 2024年9月
granite-20b-code-instruct の基盤モデル、バージョン 1.1.0 に修正された。 最新の改良版は、コードと自然言語ドメインからの高品質なデータの混合で学習され、モデルの推論と命令追従能力を向上させている。
以下の基盤モデル更新され、プロンプトでサポートされるコンテキストウィンドウの長さ(入力+出力)のサイズが8192から128000に増加した:
- granite-3b-code-instruct
- granite-8b-code-instruct
詳細は 対応基盤モデル を参照。
2024年8月30日までの週
llama-2-13b-chat および llama-2-70b-chat モデルは非推奨
2024年8月26日
llama-2-13b-chat、 llama-2-70b-chat 基盤モデル非推奨であり、2024年9月25日に廃止れる。 これらの基盤モデル使用しているプロンプトを修正する。
- llama-2-13b-chat
- 廃止日:2024年8月26日
- 脱退日:2024年9月25日
- 代替モデル: llama-3.1-8b-instruct
- llama-2-70b-chat
- 廃止日:2024年8月26日
- 脱退日:2024年9月25日
- 代替モデル: llama-3.1-70b-instruct
APIを使用して llama-2-13b-chat、 llama-2-70b-chat モデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデル取り下げに関する警告メッセージが含まれる。 2024年9月25日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。
2024年8月23日までの週
プロジェクトやスペースの共同作業者としてユーザーグループを追加する
2024年8月22日
IBM Cloud アカウントに IAM アクセスグループが含まれている場合、プロジェクトとスペースにユーザーグループを追加できるようになりました。 IBM Cloud アカウント管理者は、アクセスグループを作成することができます。このアクセスグループは、プロジェクトのユーザーグループとして利用できます。 詳細については、「 IAMアクセス・グループの操作 」を参照してください。
AutoAI 時系列実験におけるアノマリー予測機能のサポート終了
2024年8月19日
AutoAI 時系列モデル予測における異常値(外れ値)を予測する機能(現在ベータ版)は非推奨となり、2024年9月23日に削除される予定です。 標準的な AutoAI 時系列実験も引き続き完全にサポートされている。 詳細は時系列実験の構築を参照。
2024年8月16日までの週
IBM、全地域で利用可能なスレート・エンベッディングの新モデル
2024年8月15日
IBM スレート埋め込みモデルは、クエリ、パッセージ、ドキュメントなどの様々な入力に対して埋め込みを生成する能力を企業に提供する。 新モデル slate-125m-english-rtrvr-v2 と slate-30m-english-rtrvr-v2 は、 v1 と比べて大きな進歩を遂げている。 現在、 slate-125m-english-rtrvr および slate-30m-english-rtrvr のモデルをお使いの方は、 v2 スレートの新モデルに乗り換えることで、モデル改良の恩恵を受けることができます。
詳細は 対応エンコーダ基盤モデル を参照。
で、ユーザー入力と基盤モデル出力のAIガードレールを別々に設定する。 Prompt Lab
2024年8月15日
Prompt Lab で基盤モデルプロンプトを試す際に、有害なコンテンツを発見して削除するAIのガードレールの感度を調整する。 ユーザー入力とモデル出力のテキストに対して異なるフィルター感度レベルを設定でき、効果的なAIガードレール設定をプロンプトテンプレートに保存できる。
詳しくは、 有害コンテンツの削除をご覧ください。
2024年8月9日までの週
プロンプト・テンプレート評価のためにプロジェクトからテスト・データを選択する
2024年8月8日
プロジェクトでプロンプトテンプレートを評価する際に、 資産選択して評価用のテストデータを選択できるようになりました。 詳細については、「 プロジェクトでのプロンプトテンプレートの評価 」を参照してください。
llama-3-1-70b-instruct の新モデルが IBM に掲載されました。 watsonx.ai
2024年8月7日
IBM watsonx.ai の700億のパラメータサイズで、 Meta の最新の Llama 3.1 基盤モデル使用できるようになりました。
Llama 3.1シリーズの基盤モデル、トップクラスの推論機能を備えた高性能な大規模言語モデルです。 このモデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語に対応している。 詳細は 対応基盤モデル を参照。
RAGアクセラレーターとのQ&Aを更新
6 2024年8月
Q&A with RAG accelerator 1.2 サンプル・プロジェクトには以下の改良が含まれています:
検索拡張生成 (RAG)実装の次の段階である、ユーザーフィードバックの収集と回答品質の分析にお役立てください。 人気のあるトピックを表示する教師なしトピック検出による分析、トピック別に生成された回答に対するユーザーの満足度、トピック別の検索スコアを含む。
IBM granite-7b-lab および Meta Llama 3.1 基盤モデルモデルに最適化された新しいプロンプトテンプレート。
watsonx.ai Python ライブラリのRAGユーティリティを使用し、ターゲットとなるベクトル検索フィルタを使用して、製品、エリアなどで検索する合理化されたコード。
2024年8月2日までの週
llama-3-1-8b-instruct の新モデルが IBM に掲載されました。 watsonx.ai
1 2024年8月
Meta の最新の Llama 3.1 基盤モデル IBM watsonx.ai の 80 億パラメータサイズで使用できるようになった。
Llama 3.1シリーズの基盤モデル、トップクラスの推論機能を備えた高性能な大規模言語モデルです。 このモデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語に対応している。 詳細は 対応基盤モデル を参照。
ワークスペースとAIのユースケースを関連付ける
1 2024年8月
AIユースケースの作成フローは、AIのライフサイクルとより密接に連携するよう変更されている。 AIのユースケースの要点を定義したら、ワークスペースを関連付け、AIソリューションのフェーズに合わせて資産整理する。 例えば、開発または検証フェーズの資産プロジェクトまたはスペースを関連付け、運用フェーズの資産スペースを関連付ける。
詳細は、 ワークスペースとAIユースケースの関連付けを参照。
2024年7月26日までの週
Python 3.11 および R4.3 フレームワークとランタイム上のソフトウェア仕様のサポートを発表 24.1
2024年7月25日
Python 3.11 と R 4.3 に基づく最新のデータサイエンスフレームワークを含む IBM Runtime 24.1 を使用して、Jupyter ノートブックや R スクリプトを実行し、モデルをトレーニングできるようになりました。 7月29日からは、 デプロイメント実行することもできる。 IBM Runtime 24.1 フレームワークとソフトウェア仕様を使用するように、 資産 デプロイメント更新します。
- IBM Runtime 24.1 リリース、および Python 3.10 と R 4.2 の付属環境については、 ノートブック環境を参照。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
Jupyter Notebook エディターの強化版が利用可能に
2024年7月25日
Runtime 24.1 をベースとする環境でノートブックを実行している場合、これらの機能拡張を使ってコードを操作することができます:
- コードを自動的にデバッグ
- ノートブックの目次を自動生成する
- コードの横の行番号を切り替える
- セルの内容を折りたたみ、コードと出力を横に並べて表示できるため、生産性が向上します
詳細は Jupyterノートブックエディタを参照。
ランタイムでサポートされる自然言語トランフォーマーエンベッディング・モデル 24.1
2024年7月25日
新しいRuntime 24.1 環境では、自然言語処理(NLP) トランフォーマー 埋め込みモデルを使用して、文章や一節の意味を捕捉するテキスト埋め込みを作成し、 検索拡張生成タスクに役立てることができるようになりました。 詳細はエンベッディングを参照。
Runtimeでは、新しい特殊なNLPモデルを利用できます。 24.1
2024年7月25日
Runtime 24.1 環境には、新たに以下の特殊な NLP モデルが追加されました:
- テキストコンテンツに含まれる憎悪的、罵倒的、または冒涜的なコンテンツ(HAP)を検出・識別できるモデル。 詳細は HAP検出を参照。
- 金融、サイバーセキュリティ、生物医学に関連するトピックに対応できる3つの事前学習済みモデル。 詳細については、 カスタム分類モデルによるテキストの分類を参照してください。
キーポイント要約を使用して、大量のテキストから詳細な洞察を引き出す
2024年7月25日
ノートブックでKey Point Summarizationを使用すると、人々の意見を表す大量のテキスト(製品レビュー、アンケート回答、ソーシャルメディア上のコメントなど)から、詳細で実用的な洞察を抽出できるようになりました。 その結果は、処理しやすい組織的で階層的な方法で提供される。 詳しくは、 キーポイント要約をご覧ください
RStudio バージョンアップ
2024年7月25日
プライベート・クラウドとパブリック・クラウドで一貫したユーザー・エクスペリエンスを提供するため、 IBM watsonx の RStudio IDE は、2024年7月29日に RStudio Server 2024.04.1 と R 4.3.1 に更新される予定です。 新バージョンの RStudio では、多くの機能強化とセキュリティ修正が行われている。 詳細については、 RStudio Server 2024.04.1 リリースノートを参照してください。 大きな互換性の問題は予想されないが、ユーザーは以下の表に記載されているいくつかのパッケージのバージョン変更に注意する必要がある。
アップグレード後にプロジェクトから RStudio IDE を起動する場合は、 RStudio ワークスペースをリセッ トして、R 4.3.1 パッケージのライブラリ・パスが RStudio Server によってピックアップされるようにします。
Mistral Large モデルの新バージョンは、ダラス、フランクフルト、ロンドン地域の IBM watsonx.ai で利用可能になった
2024年7月24日
ダラス、フランクフルト、ロンドンのデータセンターにある IBM watsonx.ai で、ミストラルAIの Mistral Large 2 基盤モデル使用できるようになりました。
Mistral Large 2 モデルは11の言語をサポートし、テキスト理解、コード生成、高度な推論に精通している。 詳細は 対応基盤モデル を参照。
ダラス地区で llama-3-405b-instruct の新モデルを発売
2024年7月23日
ダラス・データセンターの IBM watsonx.ai で、 Meta の llama-3-405b-instruct 基盤モデル使用できるようになりました。
llama-3-405B-instruct ( v3.1 )モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルを企業に提供するもので、これまでにリリースされたオープンソースモデルとしては最大規模である。 この基盤モデル、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 詳細は 対応基盤モデル を参照。
merlinite-7b モデルは非推奨
2024年7月22日
merlinite-7b 基盤モデルモデルは非推奨であり、2024年8月22日に廃止れる。 この基盤モデル使用しているすべてのプロンプトを修正する。
- 廃止日:2024年7月22日
- 脱退日:2024年8月22日
- 代替モデル: mixtral-8x7b-instruct-v01
APIを使用して merlinite-7b モデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデル取り下げに関する警告メッセージが含まれる。 2024年8月22日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。
2024年7月12日までの週
フランクフルトとダラスで新モデル Mistral Large を発売
9 2024年7月
フランクフルトとダラスのデータセンターにある IBM watsonx.ai で、ミストラルAIの Mistral Large 基盤モデル使用できるようになりました。
Mistral Large は、トップクラスの推論機能を備えた高性能な大規模言語モデルを企業に提供します。 この基盤モデル、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 詳細は 対応基盤モデル を参照。
2024年7月5日までの週
データ・ソース・タイプ別に分類されたコネクタ
5 2024年7月
接続の作成時に、コネクタがデータ・ソース・タイプ別にグループ化され、コネクタを見つけやすく、選択しやすくなりました。 たとえば、 MongoDB データ・ソース・タイプには、 IBM Cloud Databases for MongoDB および MongoDB コネクタが含まれます。
さらに、新しい Recents カテゴリーには、接続の作成に使用した最新の6つのコネクターが表示されます。
手順については、 プロジェクトにデータ・ソースへの接続を追加するを参照してください。
基盤モデルプロンプトにコンテキスト情報を追加する Prompt Lab
4 2024年7月
関連するコンテキスト情報をプロンプトにグラウンディングデータとして追加することで検索拡張生成 (RAG) ユース ケースで基盤モデルが事実に基づいた最新の回答を生成できるようにします。 関連文書を素早くアップロードしたり、関連データのあるサードパーティのベクターストアに接続したりできる。 新しい質問が提出されると、その質問は、関連する事実のグラウンディングデータをクエリーするために使用されます。 上位の検索結果と元の質問は、 基盤モデルその出力に関連する事実を組み込むのを助けるために、モデル入力として提出される。
詳細は 基盤モデルプロンプトを文脈情報にグラウンディング を参照。
Cloud Object Storage ライト・プランの変更
2024 年 7 月 1 日
2024年7月1日より、 watsonx.ai および watsonx.governance の30日間トライアルにサインアップすると自動的にプロビジョニングされる Cloud Object Storage Lite プランは、トライアル終了後に失効する。 30日間のトライアル期間中であれば、いつでも Cloud Object Storage Lite インスタンスを無料ティアオプション付きのスタンダードプランにアップグレードできます。
2024年7月1日以前にプロビジョニングしたライトプラン付きの既存の Cloud Object Storage サービスインスタンスは、2024年12月15日まで保持されます。 Cloud Object Storage、2024年12月15日までにスタンダードプランにアップグレードする必要があります。
2024年6月21日までの週
外部の大規模言語モデル(LLM)用のプロンプトを管理するための分離されたデプロイメント作成する
2024 年 6 月 21 日
デタッチド・プロンプト・テンプレートは、 Google Vertex AI、 Azure OpenAI,、 AWS Bedrockなど、サードパーティ・プロバイダーがホストするLLMのプロンプト・テンプレートを評価するための新しい資産である。 プロンプト・テンプレートの出力を生成する推論はリモート・モデル上で行われるが、 watsonx.governance メトリクスを使用することで、プロンプト・テンプレートの出力を評価することができる。 また、ガバナンス・ソリューションの一環として、AIのユースケースにおいて、切り離されたデプロイメント切り離されたプロンプト・テンプレートを追跡することもできる。
詳しくは、以下を参照してください。
デプロイメント・ジョブリクエストには、タスク認証情報が必要です
2024年6月19日
デプロイメント・ジョブ実行する際のセキュリティを向上させるため、 ジョブ要求するユーザは、APIキーの形式でタスク認証情報を提供する必要があります。 この条件は2024年8月15日から施行される。 APIキーの生成の詳細については、 タスク認証情報の追加を参照。
EUのAI法適用のためのユースケースの評価
2024年6月19日
新しいEU AI法適用性評価を利用すれば、簡単なアンケートに答えて、自社のAIユースケースを評価し、それがEU AI法の適用範囲内かどうかを判断することができます。 アセスメントは、ユースケースが該当するリスクカテゴリー(禁止、高、限定、最小)を特定するのにも役立つ。 詳細については、 ガバナンス・コンソールのソリューション・コンポーネントの適用性評価を参照してください。
2024年6月7日までの週
ガバナンス・コンソール( IBM OpenPages )と共にリスクおよびコンプライアンス活動を管理する
7 2024年6月
Watsonx.governance ガバナンス・コンソールとオプションで統合できるようになった。 IBM OpenPages, のモデルリスク・ガバナンス・モジュールをインストールした場合、AIユースケースを構成してガバナンス・コンソールとガバナンス・ファクトを同期させることができます。 Governance コンソールでは、ガバナンスおよびコンプライアンスプロセスの一環として、ユースケースの作成、ガバナンスアクティビティの表示、タスクの管理、ワークフローの実装を行うことができます。 詳しくは、以下を参照してください。
2024年5月31日までの週
IBM Watson Pipelines は現在、 IBM オーケストレーション・パイプライン
2024年5月30日
新しいサービス名は、AIのライフサイクルの一部を反復可能なフローに編成する機能を反映している。
プロジェクトをタグ付けして簡単に検索
2024 年 5 月 31 日
プロジェクトにタグを付けて、グループ分けや検索を簡単にできるようになりました。 新しいプロジェクトを作成するとき、またはすべてのプロジェクトのリストからタグを割り当てます。 タグでプロジェクトのリストをフィルタリングして、関連するプロジェクトのセットを取得します。 詳しくは、 プロジェクトの作成をご覧ください。
新しいデータソースに接続する: Milvus
2024 年 5 月 31 日
Milvus ベクトルストアにアクセスするために、 Milvus 接続を使用して、認証情報と接続詳細の正確性を確認します。 詳しくは、 Milvus 接続を参照。
2024年5月24日までの週
新しいチュートリアルとビデオ
2024年5月23日
新しいチュートリアルでは、 デプロイメント・スペース Watson OpenScale の機能を使用してモデルデプロイメント評価する方法を紹介します。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
スペースでのデプロイメント評価する | モデルをデプロイし、デプロイされたモデルのモニターを設定し、 デプロイメント・スペースモデルを評価する。 | モニターを構成し、 デプロイメント・スペースでモデルを評価します。 |
allam-1-13b-instruct 基盤モデルフランクフルト地域で利用可能
2024年5月21日
allam-1-13b-instruct Saudi Authority for Data and Artificial Intelligenceから提供され、 IBM によって提供されたアラビア語の基盤モデル watsonx.ai は、フランクフルトのデータセンターで入手できる。 allam-1-13b-instruct、アラビア語のQ&A、要約、分類、生成、抽出、翻訳などの汎用タスクに基盤モデルできる。 詳細は 対応基盤モデル を参照。
watsonx.ai Python クライアントライブラリを使用して、従来のAI 資産ジェネレーティブAIアセットを展開する
2024年5月21日
Watson Machine Learning Python クライアント・ライブラリは現在、拡張ライブラリである watsonx.ai Python クライアント・ライブラリの一部となっている。 watsonx.ai Python ライブラリを使用して、従来の機械学習およびジェネレーティブ AI 資産扱うことができます。 Watson Machine Learning ライブラリは存続するが、新機能がアップデートされることはない。 詳しくは Python ライブラリーを参照。
2024年5月17日までの週
サードパーティのテキスト埋め込みモデルは watsonx.ai
16 2024年5月
テキストマッチングと検索を強化するために、 IBM Slateモデルに加えて、以下のサードパーティ製テキスト埋め込みモデルが利用可能になった:
- all-minilm-l12-v2
- multilingual-e5-large
watsonx.ai Python ライブラリまたは REST API を使用して、サポートされている埋め込みモデルのいずれかに文章または文章を送信し、入力テキストをベクトルに変換して、類似のテキストをより正確に比較および検索します。
これらのモデルの詳細については、 対応エンコーダ基盤モデル を参照。
テキスト変換の詳細については、 テキスト埋め込み生成を参照してください。
2024年5月10日までの週
ダラス地区では、 Granite コードの新しい基盤モデル利用可能です
9 2024年5月
IBM が提供する Granite コード基盤モデル、以下のように推論できるようになった。 watsonx.ai:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
プログラム・コーディングのタスクには、新しい Granite コード・ 基盤モデル使用する。 基盤モデル、論理的推論や問題解決を含む指示追従能力を高めるために、指示データの組み合わせでファイン・チューニングれる。
詳細は 対応基盤モデル を参照。
InstructLab 基盤モデル以下の種類があります。 watsonx.ai
7 2024年5月
InstructLab は、 と によるオープンソースのイニシアチブで、 Red Hat IBM 基盤モデルモデルの機能を拡張するためのプラットフォームを提供する。 以下の基盤モデル、以下のような知識やスキルをサポートするものである。 InstructLab:
- granite-7b-lab
- granite-13-chat-v2
- granite-20b-multilingual
- merlinite-7b
基盤モデルタクソノミーのページから、オープンソースコミュニティへの貢献を調べることができる。
詳細は InstructLab-compatible 基盤モデル を参照。
2024年5月3日までの週
プロジェクト資産フォルダに整理する
2 2024年5月
プロジェクト内にフォルダを作成して、 資産整理できるようになりました。 プロジェクトの管理者はフォルダを有効にする必要があり、管理者と編集者はフォルダを作成・管理することができます。 フォルダはベータ版であり、本番環境での使用はまだサポートされていません。 詳細は フォルダによる資産整理(ベータ版) を参照。
2024年4月26日までの週
IBM watsonx.ai はロンドン地区で利用可能
2023年4月25日
Watsonx.ai は現在、ロンドンのデータセンターで一般的に利用可能であり、サインアップ時に優先リージョンとしてロンドンを選択することができる。
- ダラスで完全にサポートされている基盤モデル、ロンドンのデータセンターでも、 Prompt Lab、またはAPIを使って推論することができる。 例外は、 mt0-xxl-13b と llama-2-70b-chat 基盤モデル、これは現在利用可能な llama-3-70b-instruct 基盤モデルモデルに取って代わられている。
- Tuning Studio、またはAPIを使用して、3つの調整可能な基盤モデルプロンプトチューニングする。
- 2つの IBM 埋め込みモデルと埋め込みAPIがサポートされています。
詳しくは、 サービスおよび機能の地域別利用可能性をご覧ください。
ホームページから直接 Prompt Lab でチャットを開始する
2023年4月25日
IBM watsonx.ai ホームページから、 基盤モデル モデルと会話を始めることができる。 チャットモードで基盤モデルモデルに送信する質問を入力するか、「 Open Prompt Lab 」をクリックして、モデル入力を送信する前に基盤モデルモデルとモデルパラメータを選択します。
2024年4月19日までの週
Meta Llama 3 基盤モデル登場
18 2024年4月
Meta が提供する以下の Llama 3 基盤モデルモデルは、以下からの推論に利用できる。 watsonx.ai:
- llama-3-8b-instruct
- llama-3-70b-instruct
新しい Llama 3 基盤モデル、様々なユースケースをサポートできるようにファイン・チューニング言語モデルである。
この最新リリースのLlamaは、より多くのトークンを使ってトレーニングされ、新しいトレーニング後の手順が適用されている。 その結果、より優れた言語理解、推論、コード生成、命令追従能力を備えた基盤モデル生まれた。
詳細は 対応基盤モデル を参照。
テキストのマッチングと検索を強化するための IBM 埋め込みサポートの導入
18 2024年4月
IBM Embeddings API と IBM Embedding models を使って入力テキストをベクトルに変換し、類似テキストをより正確に比較・検索できるようになりました。
IBM スレート埋め込みモデルは以下の通り:
- slate.125m.english.rtrvr
- slate.30m.english.rtrvr
詳しくは、 テキスト埋め込み生成をご覧ください。
料金の詳細については、 watsonx.ai ランタイムプランをご覧ください。
IBM watsonx.governance は、 IBM にご登録いただくと含まれます。 watsonx.ai
18 2024年4月
ダラス地域で watsonx.ai、 watsonx.governance。 IBM watsonx as a Service への登録をご覧ください。
スペースにおける機械学習のデプロイメント評価する
18 2024年4月
機械学習モデルのパフォーマンスに関する洞察を得るために、 デプロイメント・スペース watsonx.governance 評価を構成する。 例えば、 デプロイメント偏りを評価したり、 デプロイメントドリフトを監視したりする。 評価を設定すると、評価結果やトランザクションレコードのモデルをスペース内で直接分析できます。
詳細は スペースにおけるデプロイメント評価 を参照。
東京地区には韓国語の基盤モデルある
18 2024年4月
マインズ・アンド・カンパニーが提供し、 Meta の Llama 2 基盤モデル ・モデルをベースにした llama2-13b-dpo-v7 基盤モデル モデルが東京地区で利用できる。
llama2-13b-dpo-v7 基盤モデル、韓国語と英語の会話タスクに特化している。 また、 llama2-13b-dpo-v7 基盤モデル韓国語の汎用タスクに使用することもできます。
詳細は 対応基盤モデル を参照。
mixtral-8x7b-instruct-v01、推論用の基盤モデル用意されている
18 2024年4月
Mistral AI の mixtral-8x7b-instruct-v01 基盤モデル、 watsonx.ai から推論が可能です。 mixtral-8x7b-instruct-v01 基盤モデル、より効率的にテキストを生成するために疎な専門家混合ネットワークを使用する、事前に訓練された生成モデルである。
mixtral-8x7b-instruct-v01、分類、要約、コード生成、言語翻訳などの汎用タスクに使用できる。 詳細は 対応基盤モデル を参照。
mixtral-8x7b-instruct-v01-q 基盤モデルモデルは非推奨であり、2024年6月20日に廃止れる。 この基盤モデル使用しているすべてのプロンプトを修正する。
- 廃止日:2024年4月19日
- 脱退日:2024年6月20日
- 代替モデル: mixtral-8x7b-instruct-v01
APIを使用して mixtral-8x7b-instruct-v01-q モデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデル取り下げに関する警告メッセージが含まれる。 2024年6月20日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。
granite-20b-multilingual の基盤モデルモデルに修正を加えた
18 2024年4月
granite-20b-multilingual の最新バージョンは 1.1.0。 この修正には、新しいAIアライメント技術をバージョン 1.0 のモデルに適用することで得られた改善も含まれている。 AIの調整には、 ファイン・チューニング強化学習のテクニックを使って、できるだけ有益で、真実で、透明性のある出力を返すようにモデルを導くことが含まれる。
この基盤モデル詳細については、 対応基盤モデル を参照のこと。
2024年4月12日までの週
granite-13b-instruct-v2 基盤モデルプロンプトチューン
11 2024年4月
Tuning Studio は、 flan-t5-xl-3b と llama-2-13b-chat の基盤モデルモデルに加え、 granite-13b-instruct-v2 の基盤モデルチューニングもサポートするようになった。 詳細は 基盤モデルチューニング を参照。
granite-13b-instruct-v2 基盤モデルチューニングするための実験構成設定は、タスクに応じて最適なデフォルト値を適用するように変更される。 チューニング評価ガイドラインは、実験結果を分析し、その結果に基づいて実験構成設定を調整するのに役立ちます。 詳しくは、 チューニング実験の結果を評価するをご覧ください。
フランクフルト地域にはアラビア語の基盤モデルある
11 2024年4月
Inception、Mohamed bin Zayed University of Artificial Intelligence、Cerebras Systemsが提供する jais-13b-chat の基盤モデル、フランクフルト地域で利用できる。
jais-13b-chat 基盤モデル、アラビア語と英語の会話タスクに特化している。 また、アラビア語と英語間の言語翻訳を含む、アラビア語の一般的な目的のタスクに jais-13b-chat 基盤モデル使用することもできます。
詳細は 対応基盤モデル を参照。
プロンプトの全文を見る Prompt Lab
11 2024年4月
基盤モデルプロンプト変数が含まれている場合や、構造化モードまたはチャットモードで作業している場合に便利です。
詳しくは Prompt Lab.
非推奨の Granite バージョン1モデルは廃止
11 2024年4月
以下の基盤モデル現在廃止いる:
- granite-13b-chat-v1
- granite-13b-instruct-v1
これらの基盤モデル使用しているプロンプトは、 IBM Granite v2 の基盤モデル使用するように修正してください。 基盤モデル非推奨と廃止の詳細については、 基盤モデルライフサイクル を参照してください。
2024年4月5日までの週
Decision Optimization 実験で集計されたデータを表示するには、ピボット・テーブルを使用する
5 2024年4月
ピボットテーブルを使用して、 Decision Optimization 実験の可視化ビューで集計された入力データと出力データの両方を表示できるようになりました。 詳細については、 Decision Optimization 実験における可視化ウィジェットを参照。
新しい watsonx.ai チュートリアルとビデオ
2024/04/04
新しいチュートリアルでは、データ準備からプロンプトエンジニアリングまで、エンドツーエンドのユースケースで watsonx.ai を使用する方法をご覧いただけます。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
watsonx.ai エンド・ツー・エンドのユースケースを試す | データ準備からプロンプトエンジニアリングまで、ユースケースを追います。 | ノートブックや Prompt Lab など、さまざまなツールを使用する。 |
2024年3月15日までの週
watsonx.ai APIが利用可能
14 2024年3月
watsonx.ai APIは一般に公開されている。 watsonx.ai APIを使用して、プログラムで基盤モデル操作します。 詳細は APIリファレンスを参照。
APIのバージョンは 2024-03-14
。
ノートブックから基盤モデル操作するために利用可能な Python ライブラリを引き続き使用することができます。 詳しくは Python ライブラリーを参照。
ダラス、フランクフルト、東京で新しい基盤モデル発表
14 2024年3月
現在、以下の基盤モデル推論に利用可能です。 watsonx.ai:
granite-20b-multilingual: 英語、ドイツ語、スペイン語、フランス語、ポルトガル語のさまざまな生成タスクに使用できる、 ファミリーの IBM Granite 基盤モデル。
codellama-34b-instruct-hf: Code Llama のプログラムコード生成モデルで、 の をベースにしている。 Meta Llama 2 codellama-34b-instruct-hf を使用して、自然言語入力に基づいてコードを生成するプロンプトを作成したり、コードを完成させたりデバッグしたりすることができます。
詳細は 対応基盤モデル を参照。
2024年3月8日までの週
Tuning Studio はフランクフルトでご利用いただけます
2024年3月7日
Tuning Studio、フランクフルト地域の有料プランのユーザーが利用できるようになった。 Tuning Studio 基盤モデル有用な出力を返すように導くのに役立つ。 フランクフルトで Tuning Studio、 flan-t5-xl-3b と llama-2-70b-chat の両方の基盤モデル調整することができる。
詳しくは Tuning Studio.
東京地区における llama-2-13b-chat 基盤モデル迅速な調整
2024年3月7日
Tuning Studio は現在、東京地区の llama-2-13b-chat 基盤モデルチューニングをサポートしている。 まず、 Prompt Lab の大規模な llama-2-70b-chat モデルのプロンプトを作成し、ユースケースに効果的なプロンプト入力を見つけます。 次に、 Llama 2 モデルの小型版をチューニングして、 zero-shotプロンプト、同等、いやそれ以上の出力を生成する。
詳しくは Tuning Studio.
Mixtral8x7b モデルの低価格化
5 2024年3月
基盤モデル mixtral-8x7b-instruct-v01-q は、クラス2: $0.0018/Resource ユニット からクラス1: $0.0006/Resource ユニットに再分類され、このモデルに対する推論タスクの実行がよりコスト効率的になりました。 この再分類は、 mixtral-8x7b-instruct-v01-q。
詳細は 対応基盤モデル を参照。
料金の詳細については、 watsonx.ai ランタイムプランをご覧ください。
AIリスクアトラスの更新と強化
5 2024年3月
AIリスクアトラスでは、以下の新コンテンツや強化されたコンテンツをご覧いただけます:
- ガバナンス、法令遵守、社会的影響リスクにまたがる非技術的リスクの新しいカテゴリー
- リスクに関する新しい例
- リスクの定義の明確化
AIリスクアトラスを参照。
の新しい使用例 watsonx
5 2024年3月
watsonx のユースケースは、当社の製品、サービス、ツールの使用方法を確認するのに役立ちます:
- watsonx.ai ユースケースこのユースケースは、機械学習とジェネレーティブAIをオペレーションのフレームワークに統合することで、AI主導のソリューションでどのようにビジネスプロセスを変革できるかを取り上げます。
- watsonx.governance ユースケースこのユースケースは、AIモデルを追跡、監視、再トレーニングするための統合システムによって、責任ある、透明性の高い、説明可能なAIワークフローを実現する方法を説明します。
watsonx 使用例を参照。
2024年3月1日までの週
チャットモードは Prompt Lab
2024年2月29日
Prompt Lab のチャット・モードは、 基盤モデル実験を容易にするシンプルなチャット・インターフェースである。 チャットモードは、すでに利用可能な構造化モードと自由形式モードを補強するもので、抽出、要約、分類などのタスクのために数ショットまたは多ショットのプロンプトを作成するときに便利です。 チャットモードを使用して、チャットボットやバーチャルアシスタントのユースケースのための質問応答や会話のやりとりをシミュレートします。
詳しくは Prompt Lab.
東京地区では、日本語の Granite モデルが利用できる
2024年2月29日
IBM が提供する granite-8b-japanese の基盤モデルモデルは、東京地区では watsonx.ai から入手できる。 granite-8b-japanese 基盤モデル、 IBM Granite インストラクト・モデルに基づいており、日本語テキストを理解し、生成するように訓練されている。
granite-8b-japanese 基盤モデル、分類、抽出、質問応答、日英間の言語翻訳など、日本語の汎用タスクに使用できます。
詳細は 対応基盤モデル を参照。
2024年2月23日までの週
Granite-13b モデルの低価格化
2024年2月21日
Granite-13b モデルは、クラス2: Unitからクラス1: Unitに再分類され、これらのモデルに対して推論タスクを実行する費用対効果が高くなる。 $0.0018/Resource $0.0006/Resource この再分類は、以下のモデルが販売されているすべての地域で適用される:
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
これらのモデルの詳細については、 対応基盤モデル を参照。
料金の詳細については、 watsonx.ai ランタイムプランをご覧ください。
2024年2月16日までの週
一般的な作業を開始するための新しいショートカット
2024年2月15日
概要タブの作業開始セクションのタイルをクリックすることで、プロジェクトの共通タスクを開始できるようになりました。 これらのショートカットを使って、共同作業者とデータの追加を開始し、モデルを実験・構築する。 View allをクリックすると、ツールの選択にジャンプします。
汎用タスクのための新しい mixtral-8x7b-instruct-v01-q 基盤モデル
2024年2月15日
Mistral AIによって提供され、 IBM によって量子化された mixtral-8x7b-instruct-v01-q 基盤モデルモデルは、 watsonx.ai から入手できる。 mixtral-8x7b-instruct-v01-q 基盤モデル、ミストラルAIの Mixtral 8x7B Instruct 基盤モデルモデルを量子化したものである。
この新しいモデルは、分類、要約、コード生成、言語翻訳などの汎用タスクに使用できる。 詳細は 対応基盤モデル を参照。
以下のモデルは非推奨であり、間もなく廃止される予定である。 これらの基盤モデル使用しているプロンプトは、 mixtral-8x7b-instruct-v01-q のような別の基盤モデル使用するように修正する。
非推奨モデル | 非推奨日付 | 退会日 | 代替モデル |
---|---|---|---|
gpt-neox-20b | 2024年2月15日 | 2024年3月21日 | mixtral-8x7b-instruct-v01-q |
mpt-7b-instruct2 | 2024年2月15日 | 2024年3月21日 | mixtral-8x7b-instruct-v01-q |
starcoder-15.5b | 2024年2月15日 | 11 2024年4月 | mixtral-8x7b-instruct-v01-q |
APIを使用してこれらのモデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデルの取り下げに関する警告メッセージが含まれる。 退会日に達すると、モデルを推論するためのAPIリクエストは出力を生成しなくなる。
非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。
granite-13b-chat-v2 の基盤モデル変更することができる
2024年2月15日
granite-13b-chat-v2 の最新バージョンは 2.1.0。 この修正には、新しいAIアライメント技術をバージョン 2.0.0 のモデルに適用することで得られた改善も含まれている。 AIの調整には、 ファイン・チューニング強化学習のテクニックを使って、できるだけ有益で、真実で、透明性のある出力を返すようにモデルを導くことが含まれる。 詳しくは、 AIアライメントとは? IBM Researchのブログ記事。
新しい watsonx チュートリアルとビデオ
2024年2月15日
新しい watsonx.governance チュートリアルをお試しください。 Watson OpenScale を使って、機械学習モデルの公正さ、正確さ、ドリフト、説明可能性を評価する方法を学ぶことができます。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
機械学習モデルを評価する | モデルをデプロイし、デプロイされたモデルにモニターを設定し、モデルを評価する。 | ノートブックを実行してモデルを構成し、 Watson OpenScale を使って評価する。 |
2024年2月9日までの週
よりタスク指向の Decision Optimization ドキュメント
9 2024年2月
Decision Optimization 実験の作成と設定に必要な情報を、より簡単に見つけることができるようになりました。 Decision Optimization 実験とそのサブセクションを参照のこと。
IBM Cloud Data Engine コネクションは非推奨
2022年2月8日
IBM Cloud Data Engine 接続は非推奨であり、将来のリリースでは廃止される予定です。 重要な日付と詳細については、 データエンジンの廃止をご覧ください。
Data Refinery フロー・ジョブを実行するための新しい Spark 3.4 環境
9 2024年2月
Data Refinery ジョブ環境を選択する際に、Spark の機能拡張を含む Default Spark 3.4 & R 4.2 を選択できるようになりました。
Default Spark 3.3 & R 4.2 環境は非推奨であり、将来のアップデートで削除される予定です。
新しい Default Spark 3.4 & R 4.2 環境を使用するように Data Refinery フロージョブを更新します。 詳細は、 プロジェクトの Data Refinery の計算リソース・オプションを参照してください。
2024年2月2日までの週
サンプルコレクションはリソースハブに名称変更
2024年2月2日
Samplesコレクションは、より内容を反映するためにResource hubに改名されました。 リソースハブには、 基盤モデル、サンプルプロジェクト、データセット、ノートブックがあります。 リソースハブを参照。
IBM Cloud Databases for DataStax 接続中止
2024年2月2日
IBM Cloud Databases for DataStax の接続は IBM watsonx.ai から削除された。
Dremio 接続には更新が必要
2024年2月2日
以前は Dremio 接続には JDBC ドライバーを使用していた。 現在、接続には Arrow Flight に基づくドライバが使用されている。
重要 :接続プロパティを更新する。 Dremio ソフトウェア(オンプレミス)インスタンスまたは Dremio クラウドインスタンスの接続には、異なる変更が適用されます。
Dremio ソフトウェア:ポート番号を更新する。
フライトで使用される新しいデフォルトのポート番号は 32010
です。 ポート番号は dremio.conf ファイルで確認できる。 詳しくは dremio.conf。
さらに、 Dremio は、 IBM Cloud Satellite との接続をサポートしなくなった。
Dremio クラウド:認証方法とホスト名を更新する。
- Dremio にログインし、個人アクセストークンを生成します。 手順については、 パーソナル・アクセストークンを参照してください。
- IBM watsonx の「 Create connection: Dremio 」フォームで、認証タイプを「 Personal Access Token 」に変更し、トークン情報を追加します。 ( ユーザー名とパスワードによる認証は、 Dremio クラウドインスタンスへの接続には使用できなくなりました)
- ポートがSSL対応であることを選択します。
Dremio クラウドインスタンスにデフォルトのホスト名を使用している場合は、変更する必要があります:
sql.dremio.cloud
を次のように変更する。data.dremio.cloud
sql.eu.dremio.cloud
を次のように変更する。data.eu.dremio.cloud
llama-2-13b-chat 基盤モデルプロンプトチューン
2024年2月1日
Tuning Studio は現在、 llama-2-13b-chat 基盤モデルチューニングをサポートしている。 まず、 Prompt Lab の大規模な llama-2-70b-chat モデルのプロンプトを作成し、ユースケースに効果的なプロンプト入力を見つけます。 次に、 Llama 2 モデルの小型版をチューニングして、 zero-shotプロンプト、同等、いやそれ以上の出力を生成する。 llama-2-13b-model、ダラス地域で迅速なチューニングが可能。 詳しくは Tuning Studio.
2024年1月26日までの週
AutoAI 全実験の順序データをサポート
2024年1月25日
時系列実験だけでなく、すべての AutoAI 実験に対して順序付きデータを指定できるようになった。 行索引に従って、トレーニング・データを順次に配列するかどうかを指定します。 入力データがシーケンシャルである場合、モデルの性能はランダムサンプリングではなく最新のレコードで評価され、ホールドアウトデータは n個のランダムレコードではなくセットの最後の n個のレコードを使用する。 時系列実験では連続データが必要だが、分類実験や回帰実験では任意である。
RAGアクセラレーターとのQ&A
2024年1月26日
サンプルプロジェクトをインポートすることで、検索拡張生成を使用した質疑応答ソリューションを実装できるようになりました。 サンプル・プロジェクトには、ドキュメントをHTMLやPDFからプレーンテキストに変換し、ドキュメント・セグメントを Elasticsearch ベクトル・インデックスにインポートし、ベクトル・インデックスにクエリをかける Python 関数をデプロイし、トップNの結果を取得し、LLM推論を実行して質問に対する答えを生成し、答えがハルシネーションないかチェックするノートブックやその他の資産含まれている。
RAGアクセラレーターとのQ&Aをお試しください。
ダークテーマに設定
2024年1月25日
watsonx のユーザーインターフェイスをダークテーマに設定できるようになりました。 アバターをクリックし、 プロフィールと設定を選択してアカウントプロフィールを開きます。 次に、ダークテーマのスイッチをオンに設定する。 ダークテーマは RStudio、Jupyterノートブックではサポートされていません。 プロフィールの管理については、 設定の管理をご覧ください。
IBM watsonx.ai は東京地区で利用可能
2024年1月25日
Watsonx.ai は現在、東京データセンターで一般的に利用可能であり、契約時に優先リージョンとして選択することができる。 東京リージョンでは、これらのモデルについて、 Prompt Lab と基盤モデル推論がサポートされている:
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- granite-13b-chat-v2
- granite-13b-instruct-v2
- llama-2-70b-chat
- llama-2-13b-chat
東京地区からも購入可能:
- で flan-t5-xl-3b 基盤モデルチューニングを促す。 Tuning Studio
- Synthetic Data Generator、モデルのトレーニングに使用する表形式のデータを生成する
対応モデルの詳細については、 対応基盤モデル watsonx.ai を参照してください。
東京地区では、日本語の Llama 2 モデルが利用できる
2024年1月25日
株式会社ELYZAが提供する elyza-japanese-llama-2-7b-instruct 基盤モデルモデルは、東京データセンターの watsonx.ai インスタンスから利用できる。 elyza-japanese-llama-2-7b-instruct モデルは、 Meta の Llama 2 モデルのバージョンで、日本語テキストを理解し生成するように学習された。
この新しいモデルは、一般的な作業に使用できる。 日本語の分類や抽出、日英間の翻訳に威力を発揮する。
2024年1月12日までの週
IBM Runtime 22.2 のサポートは watsonx.ai Runtime (旧 Watson Machine Learning ) では非推奨
2024年1月11日
IBM ランタイム は非推奨であり、2024年4月11日に削除される。 22.2 2024年3月7日以降、 22.2 ランタイムを使用してノートブックやカスタム環境を作成することはできません。 また、 22.2 ランタイムに基づくソフトウェア仕様で新しいモデルをトレーニングすることはできない。 2024 年 3 月 7 日までに、 IBM Runtime 23.1 を使用するように資産 デプロイメント更新する。
- 資産サポートされているフレームワークやソフトウェア仕様に移行する方法については、「 古いソフトウェア仕様やフレームワークの管理 」を参照してください。
- ノートブック環境の詳細については、 プロジェクトのノートブック・エディタのリソース・オプションを計算してください。
- 環境の変更について詳しくは、 ノートブックの環境を変更するをご覧ください。
IBM Granite v1 基盤モデル非推奨
2024年1月11日
IBM Granite 130億パラメータ v1 基盤モデル非推奨であり、2024年4月11日に廃止れる。 バージョン1のモデルを使用している場合は、バージョン2のモデルに切り替えてください。
非推奨モデル | 非推奨日付 | 退会日 | 代替モデル |
---|---|---|---|
granite-13b-chat-v1 | 2024年1月11日 | 11 2024年4月 | granite-13b-chat-v2 |
granite-13b-instruct-v1 | 2024年1月11日 | 11 2024年4月 | granite-13b-instruct-v2 |
APIを使用してバージョン1モデルに送信された推論リクエストは、出力を生成し続けるが、近々モデルが取り下げられるという警告メッセージが含まれる。 2024年4月11日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
IBM Granite 基盤モデル詳細については、 基盤モデル IBM を参照のこと。 非推奨と撤退の詳細については、 基盤モデルライフサイクル を参照のこと。