IBM Cloudの watsonx as a Service の新機能
IBM watsonx.aiとIBM watsonx.governanceonIBM Cloud の新機能とアップデートについては、毎週チェックしてください。
AWS 上のIBM watsonx.governanceについては、 AWS上IBM watsonx.governanceの新機能を/span>のを参照してください。
2025年4月4日までの週Copy link to section
AutoAI for RAG実験の検索設定のカスタマイズCopy link to section
2025年3月31日
ベクトル化されたインデックスからデータを取得する方法の設定をコントロールできるようになりました。 ウィンドウ検索法と単純検索法のどちらかを選択し、チャンク数を選択し、ウィンドウ検索法のウィンドウサイズを設定することができます。 詳細は、 AutoAI RAG設定のカスタマイズを参照。
2025年3月21日までの週Copy link to section
欧州言語に特化した新しいオンデマンド・デプロイメント・モデルに取り組む。 watsonx.aiCopy link to section
2025 年 3 月 21 日
IBM watsonx.ai から、24のヨーロッパ言語と11の国際言語に特化したオンデマンドの基盤モデル推論することができます:
- eurollm-1-7b-instruct
- eurollm-9b-instruct
価格の詳細については、 サポートされている基盤モデル をご覧ください。 To learn more about deploying a foundation model on demand, see 基盤モデルをオンデマンドで展開.
llama-3-2-90b-vision-instruct 基盤モデルフランクフルト地域で販売開始Copy link to section
2025 年 3 月 21 日
Meta の llama-3-2-90b-vision-instruct 基盤モデル、フランクフルト地域でご利用いただけます。
基盤モデル地域別在庫状況については、 IBM Cloud の地域別在庫状況をご覧ください。 watsonx.ai で利用可能な基盤モデル詳細については、 対応基盤モデル を参照のこと。
AutoAI 実験の入力言語を合わせるCopy link to section
2025年3月20日
AutoAI は、プロンプトで使用されている言語を自動的に検出し、同じ言語で応答するようモデルに指示するようになりました。 入力言語をサポートしていないモデルは、RAGパターンの検索において優先順位が低くなる。 AutoAI、利用可能なすべてのモデルを考慮し、英語のみで回答を生成したい場合は、この実験設定をオフにすることができます。 詳細は、 AutoAI RAG設定のカスタマイズを参照。
granite-8b-japanese 基盤モデルモデルは非推奨Copy link to section
2025年3月19日
以下の granite-8b-japanese 基盤モデルモデルは非推奨であり、2025年8月6日に廃止れる。 これらの基礎モデルを使用しているプロンプトを修正する。
- 廃止日:2025年3月19日
- 脱退日:2025年8月6日
- 代替モデル:granite-3-8b-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
2025年3月7日までの1週間Copy link to section
インファレンスは、フランクフルトリージョンからオンデマンドでカスタム基盤モデルを展開Copy link to section
2025年3月6日
フランクフルトのデータセンターでホストされているプロジェクトの基盤モデル、より多くの方法で利用できるようになりました。
- カスタム基盤モデルをアップロードして展開する。
- 人気の高い一連の基盤モデルから選択し、貴社専用に専用ハードウェアに導入します。
さらに詳しくお知りになりたい方は、以下のリソースをご参照ください
オンデマンドの新しい展開モデルで作業する watsonx.aiCopy link to section
2025年3月5日
IBM から、オンデマンド基盤モデル次のとおり推論できます。 watsonx.ai:
- granite-8b-japanese
- granite-20b-multilingual
- allam-1-13b-instruct
価格の詳細については、 サポートされている基盤モデル をご覧ください。 To learn more about deploying a foundation model on demand, see 基盤モデルをオンデマンドで展開.
コードスニペットは現在、 Decision Optimization の実験で利用可能ですCopy link to section
2025年3月5日
実験用UIで Decision Optimization モデルを構築する際、 Python DOcplexまたはOPLモデル用のコードスニペットが使用できるようになりました。 コードスニペットを使用すると、最初からすべてのコードを入力しなくても、コードを追加・編集できるため、モデル構築をより迅速に行うことができます。
詳細は、「モデル構築用のコードスニペット 」を参照してください。
2025年2月28日までの1週間Copy link to section
RAG Chromaの実験用に AutoAI をAIサービスとして展開するCopy link to section
2025年2月27日
AutoAI インメモリChromaデータベースを使用して作成したRAGパターンは、AIサービスとしてデプロイできるようになりました。 このデプロイメントを使用すると、RAGパターン資産保存し、スペースに昇格させ、 デプロイメント 1回の操作で作成することができます。 次に、RAGパターンをテストし、推論エンドポイントにアクセスできます。
詳細は、 AutoAIによる RAGパターンの自動化を参照。
ランタイムの削除 23.1Copy link to section
2025年2月27日
IBM のサポート 23.1 は、 watsonx.ai のランタイムおよび watsonx.ai Studioから2025年4月17日に削除されます。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、IBMRuntime24.11に切り替えてください。
- 環境の変更については、ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
ダラス地域の Granite 3.2 Instruct および Vision モデルの推論Copy link to section
2025年2月26日
The granite-3-2-8b-instruct foundation model is a reasoning model with powerful capabilities such as citing its sources and detecting hallucinations. モデルがその思考プロセスを出力で共有するかどうかを制御し、パフォーマンスと透明性のバランスを取ることができます。 This model is the generally available version of the granite-3-2-8b-instruct-preview-rc tech preview foundation model.
The granite-vision-3-2-2b foundation model is the first multimodal Granite model built for enterprise use cases. 画像からテキストへの基盤モデル、チャート、ダイアグラム、グラフなどの理解といったタスクのために画像とテキストを取り込むことができます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
プロジェクトライブラリ(project-lib)の非推奨化Copy link to section
2025年2月24日
プロジェクトライブラリは非推奨です。 Runtime 25.1 以降、ライブラリは新しいランタイムバージョンには含まれません。 24.1 までの既存のランタイムバージョンには、非推奨のライブラリが引き続き含まれますが、ibm-watson-studio-lib ライブラリを使用するようにコードを書き換えることを検討してください。
コードの移行方法については、こちらをご覧ください
2025年2月21日までの1週間Copy link to section
超小型のハードウェア仕様でカスタム基盤モデルを展開Copy link to section
2025年2月20日
リソースを節約するために、超小型のハードウェア仕様でカスタムの基盤モデルを展開することができます。 Use the
hardware specification for the gpu_xs
parameter when you deploy your custom foundation model with the REST API. 詳細については、 基盤モデル デプロイメントを作成する をご覧ください。hardware_request
The Granite Code 3 billion parameter foundation model is available for you to deploy on demandCopy link to section
2025年2月20日
The granite-3b-code-instruct foundation model from IBM is available as a deploy on demand foundation model. 詳細については、 サポートされている基盤モデル をご覧ください。
To learn more about deploying a foundation model on demand, see 基盤モデルをオンデマンドで展開.
2025年2月14日までの1週間Copy link to section
トロント地域からのオンデマンドおよびカスタム基盤モデルの展開Copy link to section
2025年2月13日
トロント地域でホストされているプロジェクトの基盤モデルを、より多くの方法で利用できるようになりました。
- カスタム基盤モデルをアップロードして展開する。
- 人気の高い一連の基盤モデルから選択し、貴社専用に専用ハードウェアに導入します。
さらに詳しくお知りになりたい方は、以下のリソースをご参照ください
Integrate an existing hosted deployment of IBM OpenPages with watsonx.governanceCopy link to section
2024年2月13日
In addition to optionally integrating watsonx.governance with Governance console deployed with OpenPages as a Service, you can now integrate watsonx.governance with a hosted deployment of IBM OpenPages, either on a managed cloud or a traditional on-premised deployment. OpenPages のホスティング版との統合には、 watsonx.governance 用のEssentialsプランが必要です。
- プランの詳細については、 IBM watsonx.governance オファリングのプラン オプションを参照してください。
- ユースケースデータを watsonx.governance と同期する方法の詳細については、 「AI ユースケースの管理」 を参照してください。
- 統合手順については、 watsonx.governance との統合を参照してください。
scikit-learnとXGBoostからONNX形式に変換したモデルを展開するCopy link to section
2024年2月13日
scikit-learnとXGBoostをONNX形式に変換した機械学習モデルと生成型AIモデルを展開し、推論用エンドポイントを使用できるようになりました。 詳細については、 ONNX形式に変換されたモデルのデプロイを参照してください。
オンデマンドで新しい展開と連携する Granite Code モデル watsonx.aiCopy link to section
2025年2月13日
Use the following Granite Code foundation models from IBM for coding tasks such as writing, converting, and correcting programmatic code:
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
価格の詳細については、 サポートされている基盤モデル をご覧ください。 To learn more about deploying a foundation model on demand, see 基盤モデルをオンデマンドで展開.
SPSS Modeler のチュートリアルビデオを更新しましたCopy link to section
2025年2月11日
SPSS Modeler について 、 SPSS Modeler チュートリアルの更新された動画で見て学びましょう。
2025年2月7日までの1週間Copy link to section
Preview the latest IBM Granite foundation model in the Dallas regionCopy link to section
2025年2月7日
ダラス地域で現在利用可能な granite-3-2-8b-instruct-preview-rc 基盤モデルテクニカルプレビューをお試しください。 Granite 3.2 のプレビューモデルは、新しい推論機能を斬新な方法で追加します。 推論機能は設定可能であるため、説明的な情報がアウトプットに役立つタスクのみに推論を有効にすることができます。
Data forecasting with IBM Granite time series foundation models is now generally availableCopy link to section
2025年2月6日
Use the time series forecast method of the watsonx.ai API to pass historical data observations to an IBM Granite time series foundation model that can forecast future values with zero-shot inferencing.
- watsonx.ai API の予測方法の詳細については 、「将来のデータ値を予測する」 を参照してください。
- 価格については、 ジェネレーティブAI 資産の請求詳細 をご覧ください。
IBM watsonx.ai トロント地域で利用可能Copy link to section
2025年2月6日
Watsonx.ai トロントデータセンターで一般的に利用可能になりました。登録時に優先する地域としてトロントを選択できます。 推論とテキスト埋め込みの生成およびパッセージの再ランク付けには、提供された基盤モデルの一部を使用します。
For more information about the foundation models and product features that are available in the Toronto region, see 地域によるサービスおよび機能の提供状況.
シドニー地域からのオンデマンドおよびカスタム基盤モデルの展開Copy link to section
2025年2月6日
シドニーリージョンでホストされているプロジェクトの基盤モデルを、より多くの方法で操作できるようになりました。
- カスタム基盤モデルをアップロードして展開する。
- 人気の高い一連の基盤モデルから選択し、貴社専用に専用ハードウェアに導入します。
さらに詳しくお知りになりたい方は、以下のリソースをご参照ください
Mistral Large 2 foundation model is available for you to deploy on demandCopy link to section
2025年2月6日
The mistral-large-instruct-2407 foundation model from Mistral AI is available as a deploy on demand foundation model. このモデルにアクセスする場合は、追加の時間料金が適用されます。 価格の詳細については、 サポートされている基盤モデル をご覧ください。
To learn more about deploying a foundation model on demand, see 基盤モデルをオンデマンドで展開.
必要に応じて、新しい DeepSeek-R1 蒸留モデルを展開し、推論する。 watsonx.aiCopy link to section
2025年2月3日
DeepSeek-R1 モデルの蒸留されたバリエーションを、 watsonx.ai 上の IBM Cloud でオンデマンドで展開できるようになりました。 DeepSeek-R1 モデルのバリエーションは、 DeepSeek-R1 モデルによって生成されたトレーニングデータを使用して微調整されたLlamaモデルに基づいています。
詳しくは、対応ファンデーションモデルをご覧ください。
To learn more about deploying a foundation model on demand from the Resource hub or REST API, see 基盤モデルをオンデマンドで展開.
Default Inventory replaces Platform Asset Catalog in watsonx.governanceCopy link to section
2025年2月3日
AIユースケース、サードパーティモデル、添付ファイル、レポートなど、 watsonx.governance の成果物を保存するためのデフォルトのインベントリが利用可能になりました。 デフォルトのインベントリは、ガバナンスアーティファクトの保存先として、Platformアクセスカタログまたは IBM Knowledge Catalog への以前の依存関係をすべて置き換えます。
詳細については 、「デフォルトのインベントリの設定 」を参照してください。
シドニーデータセンターで利用可能な評価スタジオCopy link to section
2025年2月3日
評価スタジオを使用すると、使用ケースに合った定量的な指標とカスタマイズ可能な基準で、ジェネレーティブAI資産を評価および比較できます。 複数の資産のパフォーマンスを同時に評価し、結果の比較分析を見て、最適なソリューションを特定します。
詳しくは、 評価スタジオでAI資産を比較するをご覧ください。
2025年1月31日までの1週間Copy link to section
新しいエージェントラボ(ベータ版)でAIエージェントを構築し、展開するCopy link to section
2025年1月30日
Agent Labのユーザーインターフェースを使用して、AIエージェントを構築し、デプロイすることで、アプリケーションをより柔軟かつ動的にすることができます。 エージェントの設定で指定するエージェントフレームワーク、 基盤モデル、および外部ツールを使用して、エージェントに意思決定とタスクの実行を行わせるように設定することができます。
詳しくは、 エージェントラボをご覧ください。
Agent Lab を使用してエージェンティックなAIアプリケーションを構築する場合( watsonx.ai )、アプリケーションはAIサービスとしてデプロイされます。 ユーザーインターフェースから直接ソリューションを展開するか、AIサービスを展開する Python で編集可能なノートブック形式でソリューションをエクスポートするかを選択できます。
詳細については、AIサービスの導入を参照してください。
A powerful new Mistral Large 2 foundation model is available for you to deploy on demandCopy link to section
2025年1月30日
Deploy the mistral-large-instruct-2411 foundation model from Mistral AI on dedicated hardware for the exclusive use of your organization. This latest foundation model improves on the Mistral-Large-Instruct-2407 foundation model by adding better handling of long prompt contexts, system prompt instruction-following, and function calling.
Unlike other deploy on demand foundation models, there is an additional hourly fee for accessing the hosted the mistral-large-instruct-2411 foundation model. 価格の詳細については、 サポートされている基盤モデル をご覧ください。
To learn more about deploying a foundation model on demand from the Resource hub or REST API, see 基盤モデルをオンデマンドで展開.
フランクフルト地域におけるミストラル スモール 基盤モデル推論Copy link to section
2025年1月30日
The mistral-small-24b-instruct-2501 foundation model from Mistral AI is available and hosted on multitenant hardware ready for use. Mistral Small 3 基盤モデルは、チャットワークフローに最適です。その理由は、以下の機能にあります
- ネイティブ関数呼び出しとJSON出力生成機能を備えたエージェント機能。
- 最先端の会話機能と推論機能。
- システムプロンプトへの強い忠誠心と支持を維持する。
- 英語、フランス語、ドイツ語、スペイン語、イタリア語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語を含む数十言語に対応。
詳しくは、サポートされているファンデーションモデルをご覧ください。
DeepSeek-R1 で蒸留したモデルを展開および推論する watsonx.aiCopy link to section
2025年1月29日
DeepSeek-R1 の蒸留された派生バージョンである強力なオープンソース推論モデルを使用することで、
モデルを watsonx.ai で IBM Cloud に安全に展開および推論できるようになりました。これにより、開発者はAI搭載ソリューションの開発を加速することができます。 DeepSeek-R1
model can be deployed as a custom foundation model with watsonx.ai.DeepSeek-R1
詳細については、 カスタム基盤モデルの展開 をご覧ください。
Lower price for inferencing the Llama 3.3 70b Instruct foundation modelCopy link to section
2025年1月29日
The price for inferencing the llama-3-3-70b-instruct foundation model from Meta decreased from $0.0018 to $0.00071 USD per 1,000 tokens. 価格変更は、 基盤モデルが提供されているすべての地域に適用されます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
2025年1月24日までの1週間Copy link to section
RAG実験における AutoAI の一般利用可能Copy link to section
2025年1月23日
AutoAI for RAG is now fully supported for automating the search for an optimized retrieval-augmented generation pattern for your applications. このアップデートには、以下の新機能が含まれています
- AutoAI のRAGをサンプルデータとガイド付きツアーで探索し、プロセスを学んでください。
- If you create an experiment using a Milvus vector store, you can now deploy a RAG pattern as an AI service so you can access the endpoint from a deployment space for inferencing.
詳細は、 AutoAIによる RAGパターンの自動化を参照。
AutoAI RAG実験の実施には、以下の請求が発生します
- 容量単位時間(CUH)は、実験の実行時間に対する課金単位です。
- リソースユニット(RU)は、実験実行中に発生した埋め込みおよび生成型AIモデル推論呼び出しすべてに対して課金されます。 1リソースユニット(RU)は1,000トークンに相当します。
プラン情報および請求の詳細については watsonx.ai ランタイムプランをご覧ください。
CPDCTLでAIサービスを展開Copy link to section
2024年1月23日
Cloud Pak for Data (CPDCTL)コマンドラインインターフェイスを使用して、AIサービスと連携した生成型AIソリューションをプログラムで展開できるようになりました。 CPDCTLは、 IBM Cloud Pak for Data (CPD)プラットフォーム上でAIサービスを展開および管理するためのコマンドラインツールです。 これは、AIサービスの展開をシンプルかつ合理的に行う方法を提供し、手動での設定を不要にし、エラー発生のリスクを低減します。
詳細は 、 Cloud Pak for Data コマンドラインインターフェイス(CPDCTL)を使用したAIサービスの展開を参照してください。
RAG用 AutoAI でAIサービスを展開Copy link to section
2024年1月23日
AutoAI を使用して RAG パターンを使用するジェネレーティブ AI ソリューションを作成する場合、 AutoAI の実験ビルダーから直接 AI サービスとしてソリューションをデプロイできるようになりました。 詳細は 、「ツールを使用したAIサービスの展開 」を参照してください。
CatBoost と LightGBM からONNX形式に変換したモデルをデプロイするCopy link to section
2024年1月23日
CatBoost と LightGBM をONNX形式に変換した機械学習モデルと生成型AIモデルを展開し、推論用エンドポイントを使用できるようになりました。 これらのモデルはダイナミック軸にも適応できる。 詳細については、 ONNX形式に変換されたモデルのデプロイを参照してください。
Deploy popular foundation models on demand in watsonx.aiCopy link to section
2025年1月22日
ダラスリージョンに専用ハードウェアを配置し、お客様の組織専用として以下の基盤モデルを展開できるようになりました
- llama-3-1-70b-instruct
- granite-7b-lab
これらのモデルに関する詳細情報(価格やサポートされるコンテキストウィンドウの長さなど)については、 オンデマンド基盤モデルを展開 をご覧ください。
To learn more about deploying a foundation model on demand from the Resource hub or REST API, see 基盤モデルをオンデマンドで展開.
複数のラマ基盤モデルが、より多くの地域で利用可能になりましたCopy link to section
2025年1月22日
The following foundation models from Meta are available in more regions:
- llama-3-3-70b-instruct: 東京とロンドンに加え、ダラスとフランクフルトでもご利用いただけるようになりました。
- llama-3-2-11b-vision-instruct: ダラス、東京、シドニーに加え、フランクフルトとロンドンでもご利用いただけるようになりました。
For more information about the regional availability of foundation models, see 地域ごとの利用可能状況 IBM Cloud.
The Llama 3.1 Instruct 70b and 8b foundation models are deprecatedCopy link to section
2025年1月22日
The following foundation models from Meta are deprecated. これらの基礎モデルを使用しているプロンプトを修正する。
llama-3-1-70b-instruct
- 廃止日:2025年1月22日
- 償還期限:2025年5月30日
- 代替モデル: llama-3-3-70b-instruct または llama-3-2-90b-vision-instruct
llama-3-1-8b-instruct
- 廃止日:2025年1月22日
- 償還期限:2025年5月30日
- 代替モデル:llama-3-2-11b-vision-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
基盤モデルを継続して使用したい場合は、必要に応じてモデルを展開し、独占的に使用することができます。 詳細については、 オンデマンド基盤モデルを展開 をご覧ください。
2025年1月17日までの1週間Copy link to section
新しい IBM Granite 埋め込みモデルを使用する watsonx.aiCopy link to section
2025年1月16日
IBM watsonx.ai: で提供する以下の Granite 埋め込みモデルが利用可能になりました
- granite-embedding-107m-multilingual
- granite-embedding-278m-multilingual
新しい埋め込みモデルを使用して、クエリ、文章、または文書形式の入力として、多言語の高品質なテキスト埋め込みを生成します。 詳細は 、「サポートされているエンコーダモデル 」および 「テキストのベクトル化 」を参照してください。
Graniteに変更が加えられましたCopy link to section
2025年1月16日
IBM on watsonx.ai のダラスとシドニーのデータセンターで Granite 基盤モデルの最新バージョンを推論できるようになりました。
3.1では、128,000トークンコンテキストの長さをサポートし、 ハルシネーションや脱獄に関連するリスクのパフォーマンスを向上させるために、追加の合成データでトレーニングされています。 詳しくは、対応ファンデーションモデルをご覧ください。
granite-20b-multilingual codellama-34b-instruct-hf 基盤モデルは非推奨ですCopy link to section
2025年1月15日
以下の基礎モデルは非推奨である。 これらの基礎モデルを使用しているプロンプトを修正する。
granite-20b-multilingual
- 廃止日:2025年1月15日
- 償還期限:2025年4月16日
- 代替モデル:granite-3-8b-instruct
codellama-34b-instruct-hf
- 廃止日:2025年1月15日
- 償還期限:2025年3月31日
- 代替モデル llama-3-3-70b-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
基盤モデルを展開するための新しいモデルアーキテクチャが利用可能Copy link to section
2024年1月15日
watsonx.ai:で、以下のアーキテクチャを持つカスタム基盤モデルを展開できるようになりました
exaone
gemma
gemma2
granite
mt5
nemotron
olmo
persimmon
phi
phi3
qwen
qwen2
詳細については、 基盤モデル展開を計画中 をご覧ください。
AutoAI AG実験のベータ版は2025年1月23日に終了Copy link to section
2025年1月13日
ベータ版の終了後 AutoAI の実験を行うと、以下の通り課金が発生します
- 容量単位時間(CUH)は、実験の実行時間に対する課金単位です。
- リソースユニット(RU)は、基礎文書を埋め込み、生成型AIモデルを推論するために課金されます。 1リソースユニット(RU)は1,000トークンに相当します。
プラン情報および請求の詳細については watsonx.ai ランタイムプランをご覧ください。
2024年12月20日までの週Copy link to section
ONNX形式に変換されたモデルをデプロイするCopy link to section
2024年12月20日
ONNX形式に変換された機械学習や生成AIモデルを展開し、推論にエンドポイントを使用できるようになりました。 これらのモデルはダイナミック軸にも適応できる。 詳細については、 ONNX形式に変換されたモデルのデプロイを参照してください。
マルチソース SPSS Modeler フローの展開Copy link to section
2024年12月20日
モデルにデータを提供するために複数の入力ストリームを使用する SPSS Modeler フローの配置を作成できるようになりました。 詳細については、「 マルチソース SPSS Modeler フローの展開 」を参照してください。
2024年12月13日までの週Copy link to section
Granite 3 インストラクター・ファンデーション・モデルの変更点を紹介Copy link to section
2024年12月13日
以下の IBM ファンデーション・モデルに修正を加えた:
- granite-3-2b-instruct
- granite-3-8b-instruct
最新の修正により、 Granite 3.1の基盤モデルは、エージェントのタスクと固有機能のコーディングをより良くサポートするようになった。 これらの基礎モデルでサポートされるコンテキストウィンドウの長さは、4,096トークンから131,072トークンに増加した。 GraniteのモデルIDは変わらないが、モデルの重みは更新される。
詳しくは、サポートされているファンデーションモデルをご覧ください。
AutoAIで RAGパターンを検索するノーコード・ソリューション(ベータ版)Copy link to section
2024年12月12日
AutoAIのユーザーインターフェースから、ユースケースに最適なRAGパターンの検索を自動化できるようになりました。 文書コレクションとテスト問題をロードし、ベクトルデータベースを選択し、RAGパターンを見つけるための高速パスアプローチの実験を実行します。 また、実験のコンフィギュレーション設定を確認し、変更することもできます。 実験によって生成されたパターンを比較し、最良のパターンを自動生成ノートブックまたはプロジェクトに保存されたノートブックとして保存する。
詳細は、 AutoAIによる RAGパターンの自動化を参照。
テンプレートを使ってAIサービスを展開するCopy link to section
2024年12月12日
事前に定義されたテンプレートを使用して、AIサービスを展開することができます。 AIサービステンプレートは、AIモデルをデプロイするための定義済みの構造と構成を提供することで、AIサービスをデプロイする標準化された方法を提供する。 これらのテンプレートは、ジェネレーティブAIアプリケーションのプログラミング・ロジックをカプセル化した、あらかじめ構築された展開可能なコード単位である。
AIサービステンプレートは、デプロイメントの作成、メタデータの生成、エクステンションの構築などのタスクを自動化し、開発者がアプリケーションのコアロジックに集中できるようにする。 AIサービスを展開する柔軟な方法を提供し、複数の入力とカスタマイズをサポートする。
詳しくは、 テンプレートを使ったAIサービスのデプロイをご覧ください。
最新のLlama 基盤モデルは、オンデマンドで展開可能ですCopy link to section
2024年12月12日
You can deploy the Meta Llama 3.3 70B Instruct multilingual foundation model on dedicated hardware for the exclusive use of your organization. The newest foundation model from Meta has capabilities that are similar to the larger llama-3-405b-instruct model, but is smaller in size and is skilled at coding, step-by-step reasoning, and tool-calling in particular. 完全なモデル( llama-3-3-70b-instruct-hf )またはホストに必要なリソースが少ない量子化バージョン( llama-3-3-70b-instruct )を展開することができます。
To learn more about deploying a foundation model on demand from the Resource hub or REST API, see 基盤モデルをオンデマンドで展開.
Python クライアント・ライブラリによるオンデマンドでの基盤モデルのデプロイCopy link to section
2024年12月12日
watsonx.ai Python クライアントライブラリを使用することで、ファンデーションモデルをオンデマンドでデプロイできるようになりました。 このアプローチを使用することで、大規模な計算リソースを必要とせずに、これらの強力な基礎モデルの機能にアクセスすることができます。 オンデマンドでデプロイされたFoundationモデルは、専用のデプロイメントスペースにホストされ、推論に使用することができます。
詳しくは、 基礎モデルをオンデマンドで展開するを参照してください。
SPSS Modeler チュートリアルの更新Copy link to section
11 2024年12月
最新の SPSS Modeler チュートリアルを 15回試して、 SPSS Modelerを実際に体験してください。
評価スタジオでAI資産を比較Copy link to section
2024年12月12日
評価スタジオを使用すると、使用ケースに合った定量的な指標とカスタマイズ可能な基準で、ジェネレーティブAI資産を評価および比較できます。 複数の資産のパフォーマンスを同時に評価し、結果の比較分析を見て、最適なソリューションを特定します。
詳しくは、 評価スタジオでAI資産を比較するをご覧ください。
ガバナンス・コンソールの強化Copy link to section
2024年12月12日
- watsonx.governanceモデルリスク・ガバナンス・ソリューションの強化
このリリースには以下の機能強化が含まれている:
- 新しいAI Model Onboarding Risk Identification質問表テンプレートは、モデルのオンボーディングプロセスで使用され、モデルに関連するリスクを特定するのに役立ちます。 このアンケートテンプレートは、ファウンデーションモデル・オンボーディングのワークフローで使用されます。
- 新しい「AIユースケースリスク特定」質問表テンプレートは、AIユースケースに関連するリスクを特定するために使用される。 このアンケートテンプレートは、ユースケースレビューのワークフローで使用されます。 この新しい質問表は、AIリスク識別質問表に代わるものである
- 新しい「AIユースケースとモデルのリスク特定」質問表テンプレートは、AIユースケースとモデルの組み合わせに関連するリスクを特定するのに役立つ。 このアンケートテンプレートは、ユースケースの開発と文書化のワークフローで使用されます。
- AIアセスメントワークフローがデフォルトで無効になりました。 このワークフローは、質問票評価ワークフローに置き換えられます。 ユースケースワークフローでアンケートテンプレートを直接設定できるようになりました。
- ワークフロー、ビュー、ダッシュボードが更新された。
詳細については、Governance コンソールのソリューション コンポーネントを参照してください。
- バグ修正とセキュリティ修正
バグフィックスとセキュリティフィックスが適用された。
詳しくは 9.0.0.5 5の新機能をご覧ください。
IBM watsonx.governanceはシドニー地域でご利用いただけますCopy link to section
2024 年 12 月 9 日
IBMの watsonx.governanceは現在、シドニーのデータセンターで一般的に利用できる。 ご登録の際、ご希望の地域にシドニーをお選びいただけます。
シドニー地域で利用可能な製品機能の詳細については、サービスおよび機能の地域別利用可能性をご覧ください。
2024年12月6日までの週Copy link to section
ファウンデーション・モデルをダラス地域にオンデマンドで展開Copy link to section
6 2024年12月
厳選された基盤モデルのコレクションから選択し、組織専用のハードウェアに導入することができます。 専用の配備は、基礎モデルを推論する際に、より応答性の高いインタラクションを意味する。 オンデマンド基盤モデルのデプロイは、時間単位で課金されます。 詳しくは、対応基盤モデルとジェネレーティブAIアセットの課金詳細をご覧ください。
To learn more about deploying a foundation model on demand from the Resource hub or REST API, see 基盤モデルをオンデマンドで展開.
Inference the latest Llama foundation model from Meta in the Dallas and Frankfurt regionsCopy link to section
6 2024年12月
The Meta Llama 3.3 70B Instruct multilingual foundation model is available for interencing in the Dallas and Frankfurt regions. The llama-3-3-70b-instruct foundation model is skilled at coding, step-by-step reasoning, and tool-calling. With performance that rivals that of the 405b model, the Llama 3.3 foundation model update is a great choice for developers. IBM からの お知らせ をご覧ください。
詳しくは、サポートされているファンデーションモデルをご覧ください。
財団モデルを比較するためにベンチマークを見直すCopy link to section
5 2024年12月
基盤モデル機能を理解するために、 基盤モデルベンチマークを確認してください。 あなたのユースケースにとって最も重要なタスクについて、様々な基盤モデルがどのように機能するかを比較する。 詳細は、財団モデルのベンチマークを参照。
Microsoft Excelファイルは、Decision OptimizationのOPLモデルでは非推奨ですCopy link to section
5 2024年12月
Microsoft Excelワークブック(.xlsおよび.xlsx)ファイルは、Decision OptimizationOPLモデルでの直接入力および出力には使用されなくなりました。 Excelファイルに接続するには、代わりにデータ・コネクタを使用します。 データコネクターはExcelファイルを.csvファイルに変換します。 詳しくは参照データを参照。
ONNX形式に変換されたモデルを展開するための新しいサンプルノートブックCopy link to section
3 2024年12月
ONNX形式に変換された機械学習や生成AIモデルを展開し、推論にエンドポイントを使用できるようになりました。 これらのモデルはダイナミック軸にも適応できる。 以下のサンプルノートブックをご覧ください:
詳しくは、watsonx.aiランタイムPythonクライアントのサンプルと例をご覧ください。
llama-3-8b-instructとllama-3-70b-instructの基礎モデルは非推奨ですCopy link to section
2024 年 12 月 2 日
以下の基礎モデルは非推奨である。 これらの基礎モデルを使用しているプロンプトを修正する。
llama-3-8b-instruct
- 償却開始日:2024年12月2日
- 脱退日:2025年2月3日
- 代替モデル:llama-3-1-8b-instruct,llama-3-2-11b-vision-instruct
llama-3-70b-instruct
- 償却開始日:2024年12月2日
- 払戻日:2025年2月3日(シドニーでは2025年3月31日)
- 代替モデル:llama-3-1-70b-instruct,llama-3-2-90b-vision-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
2024年11月29日までの週Copy link to section
Data Refineryの書き込みオプションに関するドキュメントの改善Copy link to section
2024年11月28日
データ・フローをエクスポートするための書き込みオプションとテーブル・オプションは、接続によって異なります。 これらのオプションについて説明するので、ターゲット・テーブルのオプションを選択する際の参考にしてほしい。 詳細については、 Data Refineryのターゲット接続オプションを参照してください。
2024年11月22日までの週Copy link to section
新しいwatsonxDeveloper Hub でコーディングを素早く開始Copy link to section
2024年10月21日
新しいデベロッパー・ハブで、ジェネレーティブAIソリューションのコーディングに必要なあらゆるものを見つけてください:
- Make your first API request to inference a foundation model in watsonx.ai.
- AIアプリケーションに最適な基礎モデルとコードライブラリを見つける。
- watsonx.aiの機能を理解し、Curl、Node.js、またはPython でコード・スニペットをコピーする。
- ジェネレーティブAIのアプリケーションとソリューションの構築方法を、詳細なガイドで学びましょう。
- コミュニティに参加して、リソースや回答を見つけたり、他のユーザーと交流したりしましょう。
watsonxDeveloper Hub にアクセスしてください。
IBM watsonx.aiのコンポーネント・サービスの名称が変更されたCopy link to section
2024年11月21日
以下のサービスが名称変更された:
- Watson Machine Learningはwatsonx.aiランタイムという名前になった
- Watson Studioはwatsonx.aiStudioという名前になった
ビデオ、ノートブック、コードサンプルの中には、これらのサービスを以前の名前で紹介し続けるものがあるかもしれない。
IBM watsonx.aiはシドニー地域で利用可能ですCopy link to section
2024年11月21日
Watsonx.aiは現在、シドニーのデータセンターで一般的に利用可能で、サインアップ時にシドニーを希望地域として選択することができる。
シドニー地域で利用可能な基盤モデルおよび製品機能の詳細については、サービスおよび機能の地域別提供状況をご覧ください。
Use IBM Granite time series foundation models and the watsonx.ai API to forecast future values (beta)Copy link to section
2024年11月21日
Use the time series API to pass historical data observations to an IBM Granite time series foundation model that can forecast future values with zero-shot inferencing. watsonx.ai APIの時系列予測方法はベータ機能としてご利用いただけます。 詳細は 、「将来のデータ値を予測する 」を参照してください。
Elasticsearchの推論 API からwatsonx.aiのテキスト埋め込みモデルを利用するCopy link to section
2024年11月21日
The Elasticsearch version 8.16.0 release added support for creating an inference endpoint that uses a watsonx.ai foundation model for text embedding tasks.
詳しくはAPIを使ったテキストのベクトル化をご覧ください。
SPSS Modelerフローを展開スペースにプロモートするCopy link to section
2024年11月19日
プロジェクトをエクスポートしてから展開スペースにインポートしなくても、SPSS Modelerフローをプロジェクトから展開スペースに直接プロモートできるようになりました。 詳細については、 SPSS Modelerのフローとモデルのプロモートを参照してください。
2024年11月15日までの週Copy link to section
IBM「watsonx.aiデモチャットアプリは、アカウントをリンクすることで、トライアル制限なしで使用できますCopy link to section
2024年11月15日
IBM「watsonx.aiデモアカウントを「IBM Cloud watsonx.ai有料アカウントにリンクすることで、トークンの使用や時間制限なしにチャットアプリをご利用いただけます。 詳細については、 IBM watsonx.aiデモwatsonx.aiアカウントのリンクを/span>とを参照してください。
watsonx.ai Node.jsパッケージはLangChainから入手可能ですCopy link to section
2024年11月11日
watsonx.ai Node.jsパッケージは、LangChain JavaScriptコミュニティ・ライブラリから利用可能です。 この統合は、基礎モデルの推論、テキスト埋め込み生成、画像からテキストへの変換やツール呼び出し機能を含むチャット交換の処理など、watsonx.aiの機能をサポートしている。 LangChainとの統合により、プロバイダー間の交換が容易になり、提供されるサービスを比較し、ニーズに最適なソリューションを見つけることができる一貫したインターフェイスを使用することで、これらのwatsonx.aiの機能を呼び出すことができます。
詳細については、Node.jsSDKを参照してください。
アセットを配置し、配置スペースからジョブを実行するには、タスク認証情報が必要になりましたCopy link to section
2024年11月11日
配置ジョブを実行する際のセキュリティを向上させるため、配置スペースから 次のアセットを配置するには、タスクの資格情報を入力する必要があります:
- プロンプト・テンプレート
- AI サービス
- モデル
- Python 関数
- スクリプト
さらに、配置スペースから次の配置を作成するには、タスク資格情報を入力する必要があります:
- オンライン
- バッチ
また、配置スペースから配置ジョブを作成および管理するには、タスク資格情 報を使用する必要があります。
タスクのクレデンシャルを設定して API キーを生成する方法については、タスクのクレデンシャルを追加するを参照してください。
2024年11月8日までの週Copy link to section
AIサービスによる生成的AIアプリケーションの展開Copy link to section
7 2024年11月
watsonx.aiのAIサービスを使ってアプリケーションを展開できるようになりました。 AIサービスは、ジェネレーティブAIのユースケースのロジックをキャプチャするために使用できる、デプロイ可能なコード単位である。 Python関数は機械学習資産をデプロイする伝統的な方法だが、AIサービスはストリーミングのような生成的AIアプリケーションのコードをデプロイする、より柔軟なオプションを提供する。 AIサービスが正常にデプロイされたら、アプリケーションからの推論にエンドポイントを使用できます。
詳細については、AIサービスの導入を参照してください。
granite-13b-chat-v2、llama2-13b-dpo-v7、およびmt0-xxl-13bファンデーションモデルは非推奨ですCopy link to section
4 2024年11月
- 以下の基礎モデルは非推奨である。 これらの基礎モデルを使用しているプロンプトを修正する。
granite-13b-chat-v2
- 償却開始日:2024年11月4日
- 脱退日:2025年2月3日
- 代替モデル:granite-3-8b-instruct
llama2-13b-dpo-v7
- 償却開始日:2024年11月4日
- 脱退日:2024年12月4日
- 代替モデル:llama-3-1-8b-instruct
mt0-xxl-13b
- 償却開始日:2024年11月4日
- 脱退日:2024年12月4日
- 代替モデル:llama-3-1-8b-instruct,llama-3-2-11b-vision-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
2024年11月1日までの週Copy link to section
watsonx.aiに新しいサードパーティ製all-minilm-l6-v2エンベッディング・モデルが追加されましたCopy link to section
2024年10月29日
オープンソースの自然言語処理(NLP)およびコンピュータビジョン(CV)コミュニティによるall-minilm-l6-v2テキスト埋め込みモデルが、watsonx.aiAPIのテキスト埋め込みメソッドから利用できるようになりました。 このモデルを使用して、テキストをテキストマッチングや検索タスクで使用するのに適したテキスト埋め込みベクトルに変換する。 モデルの詳細については、以下のトピックを参照してください:
Lower price for inferencing the Mistral Large foundation modelCopy link to section
2024年10月29日
The price for input that you submit to the Mistral Large foundation model decreased from $0.01 to $0.003 USD per 1,000 tokens. The price for the output that is generated by the foundation model did not change; the price for output tokens remains $0.01 USD/1,000 tokens. The price change applies to all regions where the mistral-large foundation model is available.
詳しくは、サポートされているファンデーションモデルをご覧ください。
IBMランタイム23.11の廃止についてCopy link to section
2024年10月28日
IBMRuntime23.11は非推奨です。 2024年11月21日以降、23.1ランタイムを使用して新しいノートブックやカスタム環境を作成することはできません。 また、23.1ランタイムに基づくソフトウェア仕様で新しいデプロイメントを作成することはできません。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、IBMRuntime24.11に切り替えてください。
- 環境の変更については、ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
テキスト抽出APIで複雑なビジネス文書を簡素化Copy link to section
2024年10月28日
テキスト抽出メソッドは、watsonx.aiREST APIで一般的に利用できるようになった。 IBMが開発した文書理解テクノロジーを活用して、複雑なビジネス文書を簡素化し、生成的AIワークフローの一部として基礎モデルで処理できるようにします。 テキスト抽出APIは、画像、ダイアグラム、表などの文書構造からテキストを抽出する。 詳しくは、文書からテキストを抽出するを参照してください。
APIは、有料プランのユーザーであればすべての地域で利用できる。 料金の詳細については、ドキュメントテキスト抽出料金表をご覧ください。
2024年10月25日までの週Copy link to section
Decision Optimization実験のテーブルを比較して、シナリオ間の違いを見るCopy link to section
2024年10月23日
Prepare dataまたはExplore solutionビューのいずれかで、Decision Optimization実験のテーブルを比較できるようになりました。 この比較は、隣り合わせに表示されたシナリオ間のデータ値の違いを見るのに便利である。
詳しくは、 シナリオ表の比較を参照。
Granite 3.0の新モデルがwatsonx.aiに登場Copy link to section
2024年10月21日
watsonx.ai:から、IBMが提供する以下の3.0世代のGraniteFoundationモデルを推論できるようになった:
- GraniteInstructモデルを全地域で使用:要約、問題解決、テキスト翻訳、推論、コーディング、関数呼び出しタスクなどのタスクに、新しいインストラクトチューニングされた軽量でオープンソースの言語モデルを使用します。 以下のモデルバリエーションに対応:
- granite-3-2b-instruct
- granite-3-8b-instruct
- ダラス地域のGraniteガーディアンモデル:新しい「Graniteガーディアンモデルを使用してください。これは「Graniteインストラクターモデルを微調整したもので、プロンプトと応答におけるリスクを検出するように設計されています。 以下のモデルバリエーションに対応:
- granite-guardian-3-2b
- granite-guardian-3-8b
詳しくは、対応ファンデーションモデルをご覧ください。
テキスト再ランクAPIで検索タスクを強化Copy link to section
2024年10月21日
テキストの再ランクメソッドは、一般的にwatsonx.aiREST API で利用できる。 この新しいAPIメソッドを、新しくサポートされたms-marco-minilm-l-12-v2モデルのようなリランカー基礎モデルと一緒に使って、指定されたクエリに対する類似性に基づいて、一連の文書パッセージを並べ替える。 再ランク付けは、回答検索のワークフローに精度を追加する便利な方法です。 詳しくは、文書のパッセージの再ランク付けを参照のこと。
ピックストラルの新モデル12Bがフランクフルトとロンドン地区で販売開始Copy link to section
2024年10月21日
You can now use the Pixtral 12B foundation model from Mistral AI on watsonx.ai in the Frankfurt and London data centers.
Pixtral12Bは、画像とテキストをインターリーブしたデータで学習された、画像からテキスト、テキストからテキストという機能を持つネイティブのマルチモーダルモデルです。 基盤モデル、さまざまな画像サイズに対応し、指示に従う作業に優れています。 詳しくは、対応ファンデーションモデルをご覧ください。
2024年10月18日までの週Copy link to section
アカウント・リソース・スコープはデフォルトで有効Copy link to section
2024年10月17日
アカウントの'
設定は、デフォルトで'Resource scope
に設定されています。 ただし、以前にリソーススコープの設定値を「ON
または「ON
いずれかに設定した場合は、現在の設定は変更されない。OFF
リソース・スコープが有効な場合、現在選択されているIBM Cloudアカウントにないプロジェクトにはアクセスできません。 複数のIBM Cloudアカウントに所属している場合、すべてのプロジェクトが一緒に表示されないことがあります。 例えば、「すべてのプロジェクト」ページにすべてのプロジェクトが表示されないことがあります。 他のアカウントのプロジェクトを見るには、アカウントを切り替える必要があります。
A Granite Code foundation model is available in the Frankfurt regionCopy link to section
2024年10月15日
The granite-20b-code-instruct foundation model from IBM is designed to respond to coding-related instructions. フランクフルトデータセンターでホストされているプロジェクトでは、コーディング作業やコーディングアシスタントの構築に役立つ基盤モデルを使用できます。 モデルの詳細については、サポートされる財団モデルを参照のこと。
2024年10月11日までの週Copy link to section
新しいライセンス特典Copy link to section
2024年10月10日
IBM watsonx.aiとIBM watsonx.governance にオンプレミス・ライセンスのメリットを適用するために、BYOL (Bring Your Own License) が可能になりました。
詳細については、 SaaSへのBYOL(Bring Your Own License)のアクティベーションを参照してください。
SPSS ModelerのText Analyticsで日本語テキストデータを分析するCopy link to section
9 2024年10月
テキストリンク分析ノードやテキストマイニングノードなど、SPSS Modelerのテキスト分析ノードを使用して、日本語で書かれたテキストデータを分析できるようになりました。
watsonx.aiチャット API で会話型ワークフローを構築するCopy link to section
2024年10月8日
watsonx.aiチャット API を使用して、サードパーティのツールやサービスへのエージェント主導の呼び出しを含むジェネレーティブ AI 機能をアプリケーションに追加します。
詳しくは、以下のトピックを参照してください。
カスタム・ファンデーション・モデルのための新しいソフトウェア仕様Copy link to section
2024年10月7日
You can now use a new software specification
with your custom foundation model deployments. この仕様は vLLM ライブラリをベースとしており、最新のデコーダー専用大規模言語モデルにより適しています。 For more information on the vLLM library, see vLLM For information on using the specification with a custom foundation model, see 基盤モデル展開を計画中.watsonx-cfm-caikit-1.1
granite-7b-labおよびllama3-llava-next-8b-hf基盤モデルは非推奨ですCopy link to section
2024年10月7日
The granite-7b-lab foundation model is deprecated and will be withdrawn on 7 January 2025. 基盤モデルを使用しているプロンプトをすべて修正する。
- 償却開始日:2024年10月7日
- 脱退日:2025年1月7日
- 代替モデル:granite-3-8b-instruct
The llama3-llava-next-8b-hf multimodal foundation model is also deprecated and will be withdrawn on 7 November 2024. 新たにリリースされた Llama 3.2ビジョンモデルのいずれかを使用して、画像からテキストを生成するタスクを行うことができます。
- 償却開始日:2024年10月7日
- 脱退日:2024年11月7日
- 代替モデル:llama-3-2-11b-vision-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
2024年10月4日までの週Copy link to section
環境とソフトウェア仕様の更新Copy link to section
3 2024年10月
IBMRuntime23.11に含まれるTensorflowと Kerasのライブラリーが新しいバージョンに更新されました。 これは、ノートブックでのコードの実行方法に影響を与えるかもしれない。 詳細は、watsonx.aiStudio(旧Watson Studio)ランタイムに含まれるライブラリ・パッケージを参照。
ランタイム23.11は、今年後半にIBMランタイム24.11に取って代わられる予定だ。 度重なる混乱を避けるため、今すぐIBMRuntime24.11に切り替え、デプロイメントには関連するソフトウェア仕様を使用することをお勧めします。
- 環境の変更については、ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
フランクフルト地域におけるwatsonx.governanceプランの提供とOpenScaleレガシープランの廃止Copy link to section
3 2024年10月
フランクフルト地域でWatson OpenScaleをプロビジョニングするためのwatsonx.governanceレガシー・プランは廃止されます。 IBM Watson OpenScaleは、新規サブスクリプションや新規インスタンスのプロビジョニングができなくなります。 OpenScaleの機能については、watsonx.governanceEssentialsプランにご加入ください。
- プランの詳細は、watsonx.governanceplansをご覧ください。
- まずは、 watsonx.governanceのセットアップをご覧ください。
注記:
- 既存のレガシープランのインスタンスは、サポート終了日(未定)まで引き続き運用され、サポートされます。
- IBM Watson OpenScaleの既存のお客様は、引き続きIBM Watson OpenScaleを使用してサポート・チケットを開くことができます。
2024年9月27日までの週Copy link to section
マルチモーダル11Bおよび90Bモデルを含むLlama 3.2ファンデーションモデルが利用可能Copy link to section
2024年9月25日
本日のリリースにより、MetaAIの以下のファウンデーションモデルがダラス地域から利用可能となる:
- Llama 3.2指導モデル
- 大きな入力(128,000トークンのコンテキストウィンドウ長)をサポートし、1Bと 3Bのパラメータサイズでモバイルデバイスに収まるほど軽量で効率的な、汎用性の高い大規模言語モデル。 これらのモデルを使用して、高度にパーソナライズされたオンデバイス・エージェントを構築することができます。
- Llama 3.2ビジョンモデル
- 文書レベルの理解、図表の解釈、画像のキャプション付けなど、画像イン、テキストアウトのユースケースのために構築された、微調整されたモデル。
- ラマガードビジョンモデル
- 有害なコンテンツをフィルタリングするために設計された強力なガードレールモデル。
詳しくは、サポートされているファンデーションモデルをご覧ください。
ガバナンス・コンソールの強化Copy link to section
2024年9月25日
このリリースには機能強化とバグ修正が含まれています。
- ダッシュボードのカスタムタブ
ダッシュボードにカスタムタブを3つまで表示できるようになりました。
- 積み重ね棒グラフ
ダッシュボードおよびビュー デザイナーで積み上げ棒グラフを設定できるようになりました。
- アンケート回答者の回答に基づいてフィールド値を設定する式の使用
フィールドの値に式を入力できるようになった。 For example, you can enter
for the current date,[$TODAY$]
for the name of the signed on user, or[$END_USER$]
to set the field to the value of the Description field of the object.[$System Fields:Description$]
- watsonx.governanceモデルリスク・ガバナンス・ソリューションの強化
このリリースには以下の機能強化が含まれている:
- 新しいモデルグループオブジェクトタイプは、類似したモデルをグループ化する方法を提供します。 例えば、ビジネス上の問題を解決するために同じようなアプローチを使用するモデルのバージョンは、モデルグループに属するかもしれません。
- 新しいユースケース・リスク・スコアリングの計算では、ユースケースの基本的なモデルがどのように機能しているかを全体的に把握するために、違反ステータスごとのメトリクスをリスク・スコアに集約します。
- 新しいDiscovered AIライブラリ・ビジネス・エンティティは、組織内で公認されたガバナンス・プラクティスに従っていないAI(「シャドーAI」とも呼ばれる)のデプロイメントを保存するデフォルトの場所を提供する。
- ワークフロー、ビュー、ダッシュボードが更新された。
詳細については、Governance コンソールのソリューション コンポーネントを参照してください。
- バグ修正とセキュリティ修正
バグフィックスとセキュリティフィックスが適用された。
詳しくは 9.0.0.44の新機能をご覧ください。
AutoAISDK(ベータ版)でRAGパターンを自動化するCopy link to section
2024年9月23日
AutoAI PythonSDKを使用して、データとユースケースに基づいて最適化されたRAG(Retrieval-augmented Generation)パターンの設計と展開を自動化し、高速化します。 RAGには、どの大規模言語モデルを選択するか、接地文書をどのようにチャンクするか、どれだけの文書を検索するかなど、多くの設定パラメータが用意されている。 AutoAIは、制約のある設定オプションの完全な探索と評価を自動化し、最適化メトリックに対する性能でランク付けされたパターンパイプラインのセットを生成します。
機能の詳細とAutoAIRAG実験のコーディングに関する使用上の注意については、「 AutoAISDK(ベータ版)によるRAGパターンの自動化」を参照してください。
Spark3.3ランタイムの削除Copy link to section
2024年9月23日
IBM Analytics EngineのSpark3.3ランタイムのサポートは2024年10月29日までに終了し、デフォルトのバージョンはSpark3.4ランタイムに変更されます。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、Spark3.44に切り替えてください。
2024年10月29日以降、Spark3.3のランタイムを使用してノートブックやカスタム環境を作成、実行することはできません。 また、Spark3.3ランタイムに基づくソフトウェア仕様でデプロイメントを作成または実行することはできません。
- インスタンスをSpark3.44にアップグレードするには、インスタンスのデフォルトランタイムの置き換えを参照してください。
- 利用可能なノートブック環境の詳細については、ノートブックの環境を変更するを参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
2024年9月20日までの週Copy link to section
Inference a multimodal foundation model from the Prompt LabCopy link to section
2024年9月19日
You can now add an image in Prompt Lab and chat about the image by prompting a multimodal foundation model in chat mode. 文書グラウンディングことに加えて、画像をアップロードし、画像からテキストへのタスクをサポートする基盤モデル画像の視覚的内容について質問することができるようになりました。 詳しくは、文書や画像を使ったチャットをご覧ください。
新モデルllama3-llava-next-8b-hfがダラス地区で販売開始Copy link to section
2024年9月19日
You can now use the new llama3-llava-next-8b-hf multimodal foundation model on IBM watsonx.ai to help with image-to-text tasks.
Large Language and Vision AssistantLLaVa)は、マルチモーダル・チャットボットのユースケースのために、事前学習された大規模言語モデルと事前学習された視覚エンコーダを組み合わせたものです。 LLaVA NeXT Llama3は、より多様で高品質な画像およびテキストデータで学習されます。 詳しくは、対応ファンデーションモデルをご覧ください。
watsonx.ai Node.jsSDKを使ってジェネレーティブAIアプリケーションをコーディングするCopy link to section
2024年9月18日
watsonx.ai Node.jsパッケージを使用して、IBM watsonx as a Serviceの基礎モデルをプログラムで推論し、調整します。 詳細については、Node.jsSDKを参照してください。
財団モデルの知的財産補償方針を理解するCopy link to section
2024年9月18日
IBMの知的財産補償ポリシーをよりよく理解し、watsonx.ai でどの基盤モデルに知的財産補償が適用されているかを確認できるようになりました。 詳しくは、モデルタイプと知財補償を参照のこと。
2024年9月13日までの週Copy link to section
デプロイメントスペース内の SPSS Modeler フローのバッチジョブを作成するCopy link to section
2024年9月10日
展開スペースでSPSS Modelerフローのバッチジョブを作成できるようになりました。 フローでは、フローからバッチジョブを作成するたびに、実行するターミナルノードを柔軟に決定できます。 フローにバッチジョブをスケジュールすると、バッチジョブはフローで指定したデータソースと出力ターゲットを使用します。 これらのデータ ソースとデータ出力のマッピングは、データ ソースとデータ ターゲットが配置スペースにもあれば自動的に行われます。 フローからバッチジョブを作成する方法の詳細については、 SPSS Modelerフローの展開ジョブを作成するを参照してください。
展開スペースのフローとモデルの詳細については、「 SPSS Modelerのフローとモデルを展開する」を参照してください。
2024年9月6日までの週Copy link to section
Bring your own foundation model to inference from watsonx.ai in the Dallas regionCopy link to section
3 2024年9月
IBMが監修した基盤モデルで作業するだけでなく、独自の基盤モデルをアップロードしてデプロイすることもできるようになりました。 モデルが配備され、watsonx.ai に登録されたら、カスタムモデルを推論するプロンプトをプログラムまたはPrompt Labから作成します。 この機能はダラス地区でのみ利用可能。
カスタム基盤モデルのアップロードの詳細については、カスタム基盤モデルのデプロイを参照してください。 カスタム・ファンデーション・モデルのプラン情報と請求の詳細については、watsonx.aiRuntime プランをご覧ください。
文書テキスト抽出APIで複雑なビジネス文書を簡素化Copy link to section
3 2024年9月
IBMが開発した文書理解テクノロジーを適用して、複雑なビジネス文書を簡素化し、生成的AIワークフローの一部として基礎モデルで処理できるようにします。 文書テキスト抽出APIは、画像、ダイアグラム、表などの文書構造からテキストを抽出する。 watsonx.aiREST APIのテキスト抽出方法はベータ機能です。
詳しくは、文書からテキストを抽出するを参照してください。
Granite Code foundation model modification and updates are availableCopy link to section
3 2024年9月
The granite-20b-code-instruct foundation model was modified to version 1.1.0. 最新の改良版は、コードと自然言語ドメインからの高品質なデータを混合して学習させ、モデルの推論能力と命令追従能力を向上させている。
以下の基礎モデルが更新され、プロンプトでサポートされるコンテキストウィンドウの長さ(入力+出力)のサイズが8192から128000に増加した:
- granite-3b-code-instruct
- granite-8b-code-instruct
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年8月30日までの週Copy link to section
llama-2-13b-chatとllama-2-70b-chatは非推奨ですCopy link to section
2024年8月26日
llama-2-13b-chatと llama-2-70b-chatのファンデーションモデルは非推奨であり、2024年9月25日に廃止されます。 これらの基礎モデルを使用しているプロンプトを修正する。
- llama-2-13b-chat
- 廃止日:2024年8月26日
- 脱退日:2024年9月25日
- 代替モデル:llama-3.1-8b-instruct
- llama-2-70b-chat
- 廃止日:2024年8月26日
- 脱退日:2024年9月25日
- 代替モデル:llama-3.1-70b-instruct
APIを使ってllama-2-13b-chatと llama-2-70b-chatモデルに送信された推論リクエストは、出力を生成し続けますが、近々モデルが取り下げられるという警告メッセージが含まれます。 2024年9月25日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。
2024年8月23日までの週Copy link to section
プロジェクトやスペースの共同作業者としてユーザーグループを追加するCopy link to section
2024年8月22日
IBM Cloudアカウントに IAM アクセス・グループが含まれている場合、プロジェクトとスペースにユーザー・グループを追加できるようになりました。 IBM Cloudアカウント管理者は、アクセス・グループを作成することができます。 詳細については、「IAMアクセス・グループの操作」を参照してください。
AutoAI時系列実験のための異常予測機能のサポート終了Copy link to section
2024年8月19日
AutoAIの時系列モデル予測における異常値(外れ値)を予測する機能(現在ベータ版)は非推奨となり、2024年9月23日に削除される予定です。 標準的なAutoAIの時系列実験は、現在も完全にサポートされている。 詳細は時系列実験の構築を参照。
2024年8月16日までの週Copy link to section
IBMのスレート埋め込み型新モデルが全地域で利用可能にCopy link to section
2024年8月15日
IBMSlateエンベッディング・モデルは、クエリー、パッセージ、ドキュメントなどのさまざまな入力に対してエンベッディングを生成する機能を企業に提供します。 新モデルのslate-125m-english-rtrvr-v22とslate-30m-english-rtrvr-v22は、v1モデルよりも大幅に改善されている。 現在、slate-125m-english-rtrvrおよびslate-30m-english-rtrvrモデルをご使用の場合は、新しいv2Slateモデルに切り替えて、モデルの改良をご利用ください。
詳しくは、対応エンコーダ基盤モデルをご覧ください。
Configure AI guardrails for user input and foundation model output separately in Prompt LabCopy link to section
2024年8月15日
Adjust the sensitivity of the AI guardrails that find and remove harmful content when you experiment with foundation model prompts in Prompt Lab. ユーザー入力とモデル出力のテキストに対して異なるフィルター感度レベルを設定でき、効果的なAIガードレール設定をプロンプトテンプレートに保存できる。
詳しくは、有害コンテンツの削除をご覧ください。
2024年8月9日までの週Copy link to section
プロンプト・テンプレート評価のためにプロジェクトからテスト・データを選択するCopy link to section
2024年8月8日
プロジェクトでプロンプトテンプレートを評価する際に、プロジェクトアセットを選択して評価用のテストデータを選択できるようになりました。 詳細については、「プロジェクトでのプロンプトテンプレートの評価」を参照してください。
新しいllama-3-1-70b-instructモデルがIBM watsonx.aiで利用可能になりましたCopy link to section
2024年8月7日
You can now use the latest Llama 3.1 foundation models from Meta in the 70 billion parameter size on IBM watsonx.ai.
Llama 3.1シリーズの基礎モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルです。 このモデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語に対応している。 詳しくは、対応ファンデーションモデルをご覧ください。
RAGアクセラレーターとのQ&Aを更新Copy link to section
6 2024年8月
Q&A with RAG accelerator1.2サンプル・プロジェクトには、以下の改良が含まれています:
検索支援型ジェネレーション(RAG)実装の次の段階である、ユーザーフィードバックの収集と回答品質の分析にお役立てください。 人気のあるトピックを表示する教師なしトピック検出による分析、トピック別に生成された回答に対するユーザーの満足度、トピック別の検索スコアを含む。
New prompt templates that are optimized for the IBM granite-7b-lab and Meta Llama 3.1 foundation models.
watsonx.ai PythonライブラリのRAGユーティリティと、製品、エリアなどで検索するターゲットベクター検索フィルターを使用する合理化されたコード。
2024年8月2日までの週Copy link to section
新しいllama-3-1-8b-instructモデルがIBM watsonx.aiで利用可能になりましたCopy link to section
1 2024年8月
You can now use the latest Llama 3.1 foundation models from Meta in the 8 billion parameter size on IBM watsonx.ai.
Llama 3.1シリーズの基礎モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルです。 このモデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語に対応している。 詳しくは、対応ファンデーションモデルをご覧ください。
ワークスペースとAIのユースケースを関連付けるCopy link to section
1 2024年8月
AIユースケースの作成フローは、AIのライフサイクルとより密接に連携するように変更されている。 AIのユースケースの要点を定義したら、ワークスペースを関連付け、AIソリューションのフェーズに合わせて資産を整理する。 例えば、開発または検証フェーズのアセットにはプロジェクトまたはスペースを関連付け、運用フェーズのアセットにはスペースを関連付ける。
詳細は、ワークスペースとAIユースケースの関連付けを参照。
2024年7月26日までの週Copy link to section
ランタイム24.1における Python 3.11およびR4.3フレームワークとソフトウェア仕様のサポートを発表Copy link to section
2024年7月25日
Python 3.11とR4.33に基づく最新のデータサイエンス・フレームワークを含むIBMRuntime24.11を使用して、JupyterノートブックとRスクリプトを実行し、モデルをトレーニングできるようになりました。 7月29日からは、デプロイメントを実行することもできる。 IBMRuntime24.1フレームワークとソフトウェア仕様を使用するように、アセットとデプロイメントを更新してください。
- IBMRuntime24.1リリースと、Python 3.10およびR4.2用の付属環境については、ノートブック環境を参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
Jupyter Notebookエディターの拡張版が利用可能にCopy link to section
2024年7月25日
Runtime24.1ベースの環境でノートブックを実行している場合、これらの機能拡張を使ってコードを操作することができます:
- コードを自動的にデバッグ
- ノートブックの目次を自動生成する
- コードの横の行番号を切り替える
- セルの内容を折りたたみ、コードと出力を並べて表示することで、生産性を向上
詳細はJupyterノートブックエディタを参照。
Runtime24.11でサポートされるNatural Language Processorトランスフォーマ埋め込みモデルCopy link to section
2024年7月25日
新しいRuntime24.1環境では、自然言語処理(NLP)変換埋め込みモデルを使用して、文章や一節の意味を捕捉するテキスト埋め込みを作成し、検索を補助する生成タスクに役立てることができるようになりました。 詳細はエンベッディングを参照。
Runtime24.1では、新しい特殊なNLPモデルが利用可能ですCopy link to section
2024年7月25日
Runtime24.1環境には、新たに以下の特殊なNLPモデルが追加されました:
- テキストコンテンツに含まれる憎悪的、罵倒的、または冒涜的なコンテンツ(HAP)を検出・識別できるモデル。 詳細はHAP検出を参照。
- 金融、サイバーセキュリティ、生物医学に関連するトピックに対応できる3つの事前学習済みモデル。 詳細については、カスタム分類モデルによるテキストの分類を参照してください。
キーポイント要約を使用して、大量のテキストから詳細な洞察を引き出すCopy link to section
2024年7月25日
ノートブックでKey Point Summarizationを使用すると、人々の意見を表す大量のテキスト(製品レビュー、アンケート回答、ソーシャルメディア上のコメントなど)から、詳細で実用的な洞察を抽出できるようになりました。 その結果は、処理しやすい組織的で階層的な方法で提供される。 詳しくは、キーポイント要約をご覧ください
RStudioバージョン更新Copy link to section
2024年7月25日
プライベート・クラウドとパブリック・クラウドで一貫したユーザー・エクスペリエンスを提供するため、IBM watsonx用RStudioIDE は、2024 年 7 月 29 日にRStudioServer2024.04.1および R4.3.1に更新されます。 RStudioの新バージョンでは、多くの機能強化やセキュリティ修正が行われています。 詳細は、RStudioServer2024.04.1リリースノートを参照してください。 大きな互換性の問題は予想されないが、ユーザーは以下の表に記載されているいくつかのパッケージのバージョン変更に注意する必要がある。
アップグレード後にプロジェクトからRStudioIDE を起動する場合は、RStudioワークスペースをリセットして、R4.3.1パッケージのライブラリパスがRStudioServer によってピックアップされるようにします。
ダラス、フランクフルト、ロンドンのIBM watsonx.aiで Mistral Largeモデルの新バージョンが利用可能になりましたCopy link to section
2024年7月24日
You can now use the Mistral Large 2 foundation model from Mistral AI on IBM watsonx.ai in the Dallas, Frankfurt and London data centers.
Mistral Large 2モデルは11の言語をサポートし、テキスト理解、コード生成、高度な推論に精通しています。 詳しくは、対応ファンデーションモデルをご覧ください。
新モデルllama-3-405b-instructがダラス地区で販売開始Copy link to section
2024年7月23日
You can now use the llama-3-405b-instruct foundation model from Meta on IBM watsonx.ai in the Dallas data center.
llama-3-405B-instructv3.1)モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルを企業に提供し、これまでにリリースされたオープンソースモデルとしては最大規模です。 基盤モデル、テキストの理解、変換、コード生成など、複雑な多言語の推論タスクに使用できます。 詳しくは、対応ファンデーションモデルをご覧ください。
merlinite-7bモデルは非推奨Copy link to section
2024年7月22日
The merlinite-7b foundation model is deprecated and will be withdrawn on 22 August 2024. 基盤モデルを使用しているプロンプトをすべて修正する。
- 廃止日:2024年7月22日
- 脱退日:2024年8月22日
- 代替モデル:mixtral-8x7b-instruct-v01
APIを使用してmerlinite-7bモデルに提出された推論リクエストは、出力を生成し続けるが、近日中のモデル廃止についての警告メッセージが含まれる。 2024年8月22日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
2024年7月12日までの週Copy link to section
フランクフルトとダラスで新モデル「Mistral Large」を発表Copy link to section
9 2024年7月
You can now use the Mistral Large foundation model from Mistral AI on IBM watsonx.ai in the Frankfurt and Dallas data centers.
Mistral Largeは、トップクラスの推論機能を備えた高性能な大規模言語モデルを企業に提供します。 基盤モデル、テキストの理解、変換、コード生成など、複雑な多言語の推論タスクに使用できます。 詳しくは、対応ファンデーションモデルをご覧ください。
2024年7月5日までの週Copy link to section
データ・ソース・タイプ別に分類されたコネクタCopy link to section
2024年7月5日
接続の作成時に、コネクタがデータ・ソース・タイプ別にグループ化され、コネクタを見つけやすく、選択しやすくなりました。 たとえば、MongoDBデータ・ソース・タイプには、IBM Cloud Databases for MongoDBと MongoDBコネクターが含まれます。
さらに、新しいRecentsカテゴリーには、接続の作成に使用した最新の6つのコネクターが表示されます。
手順については、プロジェクトにデータ・ソースへの接続を追加するを参照してください。
Add contextual information to foundation model prompts in Prompt LabCopy link to section
4 2024年7月
関連するコンテキスト情報をグラウンディングデータとしてプロンプトに追加することで検索拡張生成 (RAG) ユース ケースで基盤モデルが事実に基づいた最新の回答を生成できるようにします。 関連文書を素早くアップロードしたり、関連データのあるサードパーティのベクターストアに接続したりできる。 新しい質問が提出されると、その質問は、関連する事実の根拠データを照会するために使用されます。 検索結果の上位と元の質問は、 基盤モデル関連する事実をその出力に組み込むのを助けるためのモデル入力として提出されます。
詳細については、 コンテキスト情報にグラウンディング基盤モデルプロンプト をご覧ください。
Cloud Object StorageLiteプランの変更Copy link to section
2024 年 7 月 1 日
2024年7月1日から、watsonx.aiと watsonx.governanceの30日間トライアルにサインアップすると自動的にプロビジョニングされるCloud Object StorageLiteプランは、トライアル終了後に失効する。 30日間のトライアル期間中であれば、いつでもCloud Object StorageLiteインスタンスをFree Tierオプション付きのStandardプランにアップグレードできます。
2024年7月1日以前にプロビジョニングしたライトプラン付きの既存のCloud Object Storageサービスインスタンスは、2024年12月15日まで保持されます。 2024年12月15日までにCloud Object StorageサービスをStandardプランにアップグレードする必要があります。
Cloud Object Storageのサービスプランをご覧ください。
2024年6月21日までの週Copy link to section
外部の大規模言語モデル(LLM)用のプロンプトを管理するための分離されたデプロイメントを作成するCopy link to section
21 2024年6月
切り離されたプロンプトテンプレートは、GoogleVertex AI、Azure OpenAI,、AWSBedrockなどのサードパーティプロバイダーによってホストされているLLMのプロンプトテンプレートを評価するための新しいアセットである。 プロンプト・テンプレートの出力を生成する推論はリモート・モデル上で行われるが、watsonx.governanceメトリクスを使用することで、プロンプト・テンプレートの出力を評価することができる。 また、ガバナンス・ソリューションの一環として、AIのユースケースにおいて、切り離されたデプロイメントと切り離されたプロンプト・テンプレートを追跡することもできる。
詳しくは、以下を参照してください。
デプロイジョブのリクエストには、タスク認証情報が必要ですCopy link to section
2024年6月19日
デプロイジョブを実行する際のセキュリティを向上させるため、ジョブを要求するユーザは、APIキーの形式でタスク認証情報を提供する必要があります。 この条件は2024年8月15日から施行される。 APIキーの生成の詳細については、タスク認証情報の追加を参照。
EUのAI法適用のためのユースケースの評価Copy link to section
2024年6月19日
新しいEU AI法適用性評価を利用すれば、簡単なアンケートに答えて、自社のAIユースケースを評価し、それがEU AI法の適用範囲内かどうかを判断することができます。 アセスメントは、ユースケースが該当するリスクカテゴリー(禁止、高、限定、最小)を特定するのにも役立つ。 詳細については、ガバナンス・コンソールのソリューション・コンポーネントの適用性評価を参照してください。
2024年6月7日までの週Copy link to section
ガバナンス・コンソールIBM OpenPages)を使用してリスクとコンプライアンス活動を管理するCopy link to section
7 2024年6月
Watsonx.governanceは、ガバナンス・コンソールとオプションで統合できるようになった。 IBM OpenPages,の Model Risk Governance モジュールをインストールしている場合、AI ユースケースを構成して Governance コンソールとガバナンス事実を同期させることができます。 Governance コンソールでは、ガバナンスおよびコンプライアンスプロセスの一環として、ユースケースの作成、ガバナンスアクティビティの表示、タスクの管理、ワークフローの実装を行うことができます。 詳しくは、以下を参照してください。
2024年5月31日までの週Copy link to section
IBM Watson Pipelinesは IBMOrchestration PipelinesになりましたCopy link to section
2024年5月30日
新しいサービス名は、AIのライフサイクルの一部を反復可能なフローに編成する機能を反映している。
プロジェクトをタグ付けして簡単に検索Copy link to section
2024 年 5 月 31 日
プロジェクトにタグを付けて、グループ分けや検索を簡単にできるようになりました。 新しいプロジェクトを作成するとき、またはすべてのプロジェクトのリストからタグを割り当てます。 タグでプロジェクトのリストをフィルタリングして、関連するプロジェクトのセットを取得します。 詳しくは、プロジェクトの作成をご覧ください。
新しいデータソースに接続するMilvusCopy link to section
2024 年 5 月 31 日
Milvus 接続を使用して、 Milvus ベクターストアにアクセスするための認証情報と接続の詳細を保存し、その正確性を確認します。 詳しくは Milvusの接続を参照。
2024年5月24日までの週Copy link to section
新しいチュートリアルとビデオCopy link to section
2024年5月23日
新しいチュートリアルで、Watson OpenScaleの機能を使用してモデルのデプロイメントを評価する方法をご覧ください。
チュートリアル | 詳細 | チュートリアルの専門知識 |
---|---|---|
スペースでの展開を評価する | モデルをデプロイし、デプロイされたモデルのモニターを設定し、デプロイメントスペースでモデルを評価する。 | Configure the monitors and evaluate a model in a deployment space. |
The allam-1-13b-instruct foundation model is available in the Frankfurt regionCopy link to section
2024年5月21日
The Arabic foundation model allam-1-13b-instruct from Saudi Authority for Data and Artificial Intelligence and provided by IBM is available from watsonx.ai in the Frankfurt data center. You can use the allam-1-13b-instruct foundation model for general-purpose tasks, including Q&A, summarization, classification, generation, extraction, and translation in Arabic. 詳しくは、サポートされているファンデーションモデルをご覧ください。
watsonx.ai Pythonクライアント・ライブラリを使って、従来のAIアセットとジェネレーティブAIアセットをデプロイするCopy link to section
2024年5月21日
Watson Machine Learning Pythonクライアント・ライブラリは現在、拡張ライブラリであるwatsonx.ai Pythonクライアント・ライブラリの一部となっている。 watsonx.ai Pythonライブラリを使って、従来の機械学習や生成 AI 資産を扱うことができます。 Watson Machine Learningライブラリーは存続するが、新機能がアップデートされることはない。 詳細はPythonライブラリを参照。
2024年5月17日までの週Copy link to section
サードパーティのテキスト埋め込みモデルは、watsonx.aiで利用可能ですCopy link to section
16 2024年5月
テキスト・マッチングと検索を強化するために、IBMSlateモデルに加えて、以下のサードパーティ製テキスト埋め込みモデルが利用できるようになった:
- all-minilm-l12-v2
- multilingual-e5-large
watsonx.ai Pythonライブラリまたは REST API を使用して、サポートされている埋め込みモデルのいずれかに文章または文章を送信し、入力テキストをベクトルに変換して、類似のテキストをより正確に比較・検索します。
これらのモデルの詳細については、サポートされるエンコーダ基礎モデルを参照してください。
テキスト変換の詳細については、テキスト埋め込み生成を参照してください。
2024年5月10日までの週Copy link to section
ダラス地区で新しいGranite基礎モデルが利用可能Copy link to section
9 2024年5月
watsonx.ai:から、IBMが提供する以下のGraniteCode Foundationモデルを推論できるようになりました:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
プログラム・コーディング・タスクには、新しいGraniteを使用する。 基礎モデルは、論理的推論や問題解決を含む指示追従能力を高めるために、指示データの組み合わせで微調整される。
詳しくは、サポートされているファンデーションモデルをご覧ください。
InstructLabの基礎モデルは、watsonx.aiで利用可能ですCopy link to section
7 2024年5月
InstructLab is an open source initiative by Red Hat and IBM that provides a platform for augmenting the capabilities of a foundation model. The following foundation models support knowledge and skills that are contributed from InstructLab:
- granite-7b-lab
- granite-13-chat-v2
- granite-20b-multilingual
- merlinite-7b
基盤モデル分類ページから、オープンソースコミュニティの貢献を探索することができます。
詳しくはInstructLab-compatible基盤モデルをご覧ください。
2024年5月3日までの週Copy link to section
プロジェクト資産をフォルダに整理するCopy link to section
2 2024年5月
プロジェクト内にフォルダを作成して、アセットを整理できるようになりました。 プロジェクトの管理者はフォルダを有効にする必要があり、管理者と編集者はフォルダを作成・管理することができます。 フォルダはベータ版であり、本番環境での使用はまだサポートされていません。 詳しくは、フォルダによるアセットの整理(ベータ版)をご覧ください。
2024年4月26日までの週Copy link to section
IBM watsonx.aiはロンドン地域でご利用いただけますCopy link to section
2023年4月25日
Watsonx.aiは現在、ロンドンのデータセンターで一般的に利用可能で、サインアップの際に希望地域としてロンドンを選択することができる。
- ダラスで完全にサポートされている基礎モデルは、ロンドンのデータセンターでも、Prompt Labから、あるいはAPIを使って推論することができる。 The exceptions are mt0-xxl-13b and the llama-2-70b-chat foundation model, which is superseded by the llama-3-70b-instruct foundation model that is now available.
- Tuning Studioから、またはAPIを使用して、3つのチューニング可能な基礎モデルをプロンプトチューニングします。
- 2つのIBMエンベッディングモデルとエンベッディングAPIがサポートされています。
詳しくは、サービスおよび機能の地域別利用可能性をご覧ください。
ホームページから直接Prompt Labでチャットを開始するCopy link to section
2023年4月25日
Now you can start a conversation with a foundation model from the IBM watsonx.ai home page. Enter a question to send to a foundation model in chat mode or click 開く Prompt Lab to choose a foundation model and model parameters before you submit model input.
2024年4月19日までの週Copy link to section
New Meta Llama 3 foundation models are now availableCopy link to section
18 2024年4月
The following Llama 3 foundation models provided by Meta are available for inferencing from watsonx.ai:
- llama-3-8b-instruct
- llama-3-70b-instruct
新しいLlama 3の基礎モデルは、様々なユースケースをサポートできるように細かく調整された言語モデルです。
この最新リリースのラマは、より多くのトークンを使ってトレーニングされ、新しいトレーニング後の手順が適用されている。 その結果、より優れた言語理解、推論、コード生成、命令追従能力を備えた基礎モデルが生まれた。
詳しくは、サポートされているファンデーションモデルをご覧ください。
テキストマッチングと検索を強化するIBMエンベッディングサポートの導入Copy link to section
18 2024年4月
IBMembeddeddings API とIBMembedding models を使用して、入力テキストをベクトルに変換し、類似のテキストをより正確に比較・検索できるようになりました。
以下のIBMSlate埋め込みモデルが利用可能です:
- slate.125m.english.rtrvr
- slate.30m.english.rtrvr
詳しくは、テキスト埋め込み生成をご覧ください。
料金の詳細については、watsonx.aiランタイムプランをご覧ください。
IBM watsonx.governance is included when you sign up for IBM watsonx.aiCopy link to section
18 2024年4月
ダラス地域でwatsonx.aiにサインアップすると、watsonx.governanceが自動的に含まれるようになりました。 IBM watsonx as a Serviceのサインアップを参照してください。
スペースにおける機械学習の導入を評価するCopy link to section
18 2024年4月
watsonx.governance評価をデプロイメントスペースに設定することで、機械学習モデルのパフォーマンスに関する洞察を得ることができます。 例えば、配備の偏りを評価したり、配備のドリフトを監視したりする。 評価を設定すると、評価結果やトランザクションレコードのモデルをスペース内で直接分析できます。
詳しくは、スペースでの配備を評価するを参照。
東京地域では、韓国語の基盤モデルが利用可能ですCopy link to section
18 2024年4月
The llama2-13b-dpo-v7 foundation model provided by Minds & Company and based on the Llama 2 foundation model from Meta is available in the Tokyo region.
The llama2-13b-dpo-v7 foundation model specializes in conversational tasks in Korean and English. You can also use the llama2-13b-dpo-v7 foundation model for general purpose tasks in the Korean language.
詳しくは、サポートされているファンデーションモデルをご覧ください。
A mixtral-8x7b-instruct-v01 foundation model is available for inferencingCopy link to section
18 2024年4月
The mixtral-8x7b-instruct-v01 foundation model from Mistral AI is available for inferencing from watsonx.ai. The mixtral-8x7b-instruct-v01 foundation model is a pretrained generative model that uses a sparse mixture-of-experts network to generate text more efficiently.
mixtral-8x7b-instruct-v01モデルは、分類、要約、コード生成、言語翻訳などの汎用タスクに使用できます。 詳しくは、サポートされているファンデーションモデルをご覧ください。
The mixtral-8x7b-instruct-v01-q foundation model is deprecated and will be withdrawn on 20 June 2024. 基盤モデルを使用しているプロンプトをすべて修正する。
- 廃止日:2024年4月19日
- 脱退日:2024年6月20日
- 代替モデル:mixtral-8x7b-instruct-v01
APIを使用してmixtral-8x7b-instruct-v01-qモデルに提出された推論リクエストは、出力を生成し続けますが、近日中のモデルの取り下げに関する警告メッセージが含まれます。 2024年6月20日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
A modification to the granite-20b-multilingual foundation model is introducedCopy link to section
18 2024年4月
granite-20b-multilingualの最新バージョンは1.1.0です。 この修正には、バージョン1.0のモデルに新しいAIアライメント技術を適用することで得られた改良が含まれている。 AIの調整には、微調整と強化学習のテクニックを使って、できるだけ有益で、真実で、透明性のある出力を返すようにモデルを導くことが含まれる。
For more information about this foundation model, see サポートされている基盤モデル.
2024年4月12日までの週Copy link to section
Prompt-tune the granite-13b-instruct-v2 foundation modelCopy link to section
11 2024年4月
The Tuning Studio now supports tuning the granite-13b-instruct-v2 foundation model in addition to the flan-t5-xl-3b and llama-2-13b-chat foundation models. 詳細については、 基盤モデルチューニング をご覧ください。
The experiment configuration settings for tuning the granite-13b-instruct-v2 foundation model change to apply the best default values depending on your task. チューニング評価ガイドラインは、実験結果を分析し、その結果に基づいて実験構成設定を調整するのに役立ちます。 詳しくは、チューニング実験の結果を評価するをご覧ください。
フランクフルト地域では、アラビア語の基盤モデルが利用可能ですCopy link to section
11 2024年4月
The jais-13b-chat foundation model provided by Inception, Mohamed bin Zayed University of Artificial Intelligence, and Cerebras Systems is available in the Frankfurt region.
The jais-13b-chat foundation model specializes in conversational tasks in Arabic and English. You can also use the jais-13b-chat foundation model for general purpose tasks in the Arabic language, including language translation between Arabic and English.
詳しくは、サポートされているファンデーションモデルをご覧ください。
Prompt Labでプロンプトの全文を見るCopy link to section
11 2024年4月
基盤モデル送信されるプロンプトのテキスト全体を確認できるようになりました。これは、プロンプトにプロンプト変数が含まれている場合や、構造化モードまたはチャットモードで作業している場合に便利です。
詳細はPrompt Labを参照。
非推奨のGraniteバージョン1モデルは廃止されたCopy link to section
11 2024年4月
以下のファンデーションモデルは現在販売中止となっている:
- granite-13b-chat-v1
- granite-13b-instruct-v1
Revise any prompts that use these foundation models to use the IBM Granite v2 foundation models. For more information about foundation model deprecation and withdrawal, see 基盤モデルライフサイクル.
2024年4月5日までの週Copy link to section
ピボットテーブルを使用して、Decision Optimization実験で集計されたデータを表示するCopy link to section
5 2024年4月
ピボットテーブルを使用して,Decision Optimization実験のVisualizationビューに集約された入力データと出力データの両方を表示できるようになった. 詳細については、 Decision Optimizationexperimentsの可視化ウィジェットを参照。
新しい watsonx.ai チュートリアルと動画Copy link to section
2024年4月4日
watsonx.ai をデータ準備からプロンプトエンジニアリングまで、エンドツーエンドのユースケースで使用する方法を、新しいチュートリアルで試してみましょう。
チュートリアル | 詳細 | チュートリアルの専門知識 |
---|---|---|
watsonx.ai のエンドツーエンドのユースケースをお試しください。 | データ準備から迅速なエンジニアリングまでのユースケースを追う。 | ノートブックや Prompt Lab などのさまざまなツールを使用します。 |
2024年3月15日までの週Copy link to section
watsonx.aiAPI が利用可能ですCopy link to section
14 2024年3月
watsonx.aiのAPIは一般に公開されている。 watsonx.aiAPI を使用して、プログラムでファンデーションモデルを操作します。 詳細はAPIリファレンスを参照。
APIのバージョンは
です。2024-03-14
ノートブックから基礎モデルを操作するために利用可能なPythonライブラリを引き続き使用することができます。 詳細はPythonライブラリを参照。
ダラス、フランクフルト、東京で新しいファンデーション・モデルを発表Copy link to section
14 2024年3月
現在、watsonx.ai:から推論に利用できる基礎モデルは以下の通りです:
granite-20b-multilingual: A foundation model from the IBM Granite family that you can use for various generative tasks in English, German, Spanish, French, and Portuguese.
codellama-34b-instruct-hf: Code Llama からのプログラムコード生成モデルは、 ( )に基づいています。 Llama 2 Meta codellama-34b-instruct-hf を使用して、自然言語の入力に基づくコード生成用のプロンプトを作成したり、コードの補完やデバッグを行うことができます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年3月8日までの週Copy link to section
Tuning StudioはフランクフルトにありますCopy link to section
2024年3月7日
Tuning Studioは、フランクフルト地域の有料プランのユーザーが利用できるようになった。 Tuning Studio helps you to guide a foundation model to return useful output. You can tune both the flan-t5-xl-3b and llama-2-70b-chat foundation models when you use the Tuning Studio in Frankfurt.
詳しくはTuning Studioをご覧ください。
Prompt-tune the llama-2-13b-chat foundation model in the Tokyo regionCopy link to section
2024年3月7日
The Tuning Studio now supports tuning the llama-2-13b-chat foundation model in the Tokyo region. まず、 llama-2-70b-chat モデルのより大きな Prompt Lab をエンジニアに提示し、ユースケースに有効なプロンプト入力を探します。 Then tune the smaller version of the Llama 2 model to generate comparable, if not better outputs with zero-shot prompts.
詳しくはTuning Studioをご覧ください。
Mixtral8x7bモデルの低価格化Copy link to section
5 2024年3月
The foundation model mixtral-8x7b-instruct-v01-q is reclassified from Class 2: $0.0018/Resource Unit to Class 1: $0.0006/Resource Unit, making it more cost effective to run inferencing tasks against this model. この再分類は、 mixtral-8x7b-instruct-v01-q が利用可能なすべての地域に適用されます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
料金の詳細については、watsonx.aiランタイムプランをご覧ください。
AIリスクアトラスの更新と強化Copy link to section
5 2024年3月
AIリスクアトラスでは、以下の新コンテンツや強化されたコンテンツをご覧いただけます:
- ガバナンス、法令遵守、社会的影響リスクにまたがる非技術的リスクの新しいカテゴリー
- リスクに関する新しい例
- リスクの定義の明確化
AIリスクアトラスを参照。
watsonxの新しい使用例Copy link to section
5 2024年3月
watsonxのユースケースは、お客様が弊社の製品、サービス、ツールをどのように使用できるかを確認するのに役立ちます:
- watsonx.aiのユースケース:このユースケースは、機械学習とジェネレーティブ AI をオペレーションのフレームワークに統合することで、AI 駆動のソリューションでビジネスプロセスをどのように変革できるかについて説明します。
- watsonx.governanceのユースケース:このユースケースは、AIモデルを追跡、監視、再トレーニングするための統合システムによって、責任ある透明性の高い説明可能なAIワークフローを実現する方法を説明します。
watsonxの使用例をご覧ください。
2024年3月1日までの週Copy link to section
チャットモードはPrompt Labで利用可能Copy link to section
2024年2月29日
Prompt Labのチャット・モードは、基礎モデルの実験を容易にするシンプルなチャット・インターフェースです。 チャットモードは、すでに利用可能な構造化モードと自由形式モードを補強するもので、抽出、要約、分類などのタスクのために数ショットまたは多ショットのプロンプトを作成するときに便利です。 チャットモードを使用して、チャットボットやバーチャルアシスタントのユースケースのための質問応答や会話のやりとりをシミュレートします。
詳細はPrompt Labを参照。
東京地区には日本語版Graniteが用意されているCopy link to section
2024年2月29日
The granite-8b-japanese foundation model provided by IBM is available from watsonx.ai in the Tokyo region. The granite-8b-japanese foundation model is based on the IBM Granite Instruct model and is trained to understand and generate Japanese text.
You can use the granite-8b-japanese foundation model for general purpose tasks in the Japanese language, such as classification, extraction, question-answering, and for language translation between Japanese and English.
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年2月23日までの週Copy link to section
Granite-13bモデルの低価格化Copy link to section
2024年2月21日
Granite-13bモデルは、クラス2:$0.0018/Resourceユニットからクラス1:$0.0006/Resourceユニットに再分類され、これらのモデルに対して推論タスクを実行する際の費用対効果が高くなった。 この再分類は、以下のモデルが販売されているすべての地域で適用される:
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
これらのモデルの詳細については、対応するファンデーションモデルを参照のこと。
料金の詳細については、watsonx.aiランタイムプランをご覧ください。
2024年2月16日までの週Copy link to section
一般的な作業を開始するための新しいショートカットCopy link to section
2024年2月15日
概要タブの作業開始セクションのタイルをクリックすることで、プロジェクトの共通タスクを開始できるようになりました。 これらのショートカットを使って、共同作業者とデータの追加を開始し、モデルを実験・構築する。 View allをクリックすると、ツールの選択にジャンプします。
New mixtral-8x7b-instruct-v01-q foundation model for general-purpose tasksCopy link to section
2024年2月15日
The mixtral-8x7b-instruct-v01-q foundation model provided by Mistral AI and quantized by IBM is available from watsonx.ai. mixtral-8x7b-instruct-v01-q ファ基盤モデルは、Mistral AI の Mixtral 8x7B インストラクション・ファ基盤モデルの量子化されたバージョンです。
この新しいモデルは、分類、要約、コード生成、言語翻訳などの汎用タスクに使用できる。 詳しくは、サポートされているファンデーションモデルをご覧ください。
以下のモデルは非推奨であり、間もなく廃止される予定である。 Revise any prompts that use these foundation models to use another foundation model, such as mixtral-8x7b-instruct-v01-q.
非推奨モデル | 非推奨日付 | 退会日 | 代替モデル |
---|---|---|---|
gpt-neox-20b | 2024年2月15日 | 2024年3月21日 | mixtral-8x7b-instruct-v01-q |
mpt-7b-instruct2 | 2024年2月15日 | 2024年3月21日 | mixtral-8x7b-instruct-v01-q |
starcoder-15.5b | 2024年2月15日 | 11 2024年4月 | mixtral-8x7b-instruct-v01-q |
APIを使用してこれらのモデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデルの取り下げに関する警告メッセージが含まれる。 退会日に達すると、モデルを推論するためのAPIリクエストは出力を生成しなくなる。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
A modification to the granite-13b-chat-v2 foundation model is availableCopy link to section
2024年2月15日
granite-13b-chat-v22の最新バージョンは2.1.0です。 この修正には、バージョン2.0.0のモデルに新しいAIアライメント技術を適用することで得られた改良が含まれている。 AIの調整には、微調整と強化学習のテクニックを使って、できるだけ有益で、真実で、透明性のある出力を返すようにモデルを導くことが含まれる。 詳しくは、AIアライメントとは? IBMResearchのブログ記事。
新しいwatsonxのチュートリアルとビデオCopy link to section
2024年2月15日
新しいwatsonx.governanceチュートリアルをお試しください。Watson OpenScale を使用して、公正さ、正確さ、ドリフト、説明可能性について機械学習モデルを評価する方法を学ぶことができます。
チュートリアル | 詳細 | チュートリアルの専門知識 |
---|---|---|
機械学習モデルを評価する | モデルをデプロイし、デプロイされたモデルにモニターを設定し、モデルを評価する。 | Run a notebook to configure the models and use Watson OpenScale to evaluate. |
2024年2月9日までの週Copy link to section
タスク指向のDecision OptimizationドキュメントCopy link to section
9 2024年2月
Decision Optimization実験の作成と設定に必要な情報を、より簡単に見つけることができるようになりました。 Decision Optimization実験とそのサブセクションを参照。
IBM Cloud Data Engineの接続は非推奨ですCopy link to section
2022年2月8日
IBM Cloud Data Engine接続は非推奨であり、将来のリリースで廃止される予定です。 重要な日付と詳細については、データエンジンの廃止をご覧ください。
Data Refineryフロー・ジョブを実行するための新しいSpark3.4環境Copy link to section
9 2024年2月
Data Refineryフロージョブの環境を選択する際に、Sparkの機能強化を含むDefault Spark3.4& R4.22を選択できるようになりました。
デフォルトのSpark3.3& R4.2環境は非推奨であり、将来のアップデートで削除される予定です。
Data Refineryのフロー・ジョブを更新して、新しいDefault Spark3.4& R4.2環境を使用するようにします。 詳細は、プロジェクトData Refineryのオプションを参照してください。
2024年2月2日までの週Copy link to section
サンプルコレクションはリソースハブに名称変更Copy link to section
2024年2月2日
Samplesコレクションは、より内容を反映するためにResource hubに改名されました。 リソースハブには、基礎モデル、サンプルプロジェクト、データセット、ノートブックがあります。 リソースハブを参照。
IBM Cloud Databases for DataStaxの接続は終了しましたCopy link to section
2024年2月2日
IBM Cloud Databases for DataStax接続はIBM watsonx.aiから削除されました。
Dremio接続にはアップデートが必要Copy link to section
2024年2月2日
以前のDremio接続はJDBCドライバを使っていた。 現在、接続には Arrow Flight に基づくドライバーが使用されています。
Dremioソフトウェア:ポート番号を更新してください。Copy link to section
Flightが使用する新しいデフォルトのポート番号は
です。 ポート番号はdremio.confファイルで確認できる。 詳しくは dremio.confによる設定を参照してください。32010
さらに、Dremioは IBM Cloud Satelliteとの接続をサポートしなくなった。
DremioCloudです:認証方法とホスト名を更新します。Copy link to section
- Dremioにログインし、個人アクセストークンを生成する。 手順については、パーソナル・アクセストークンを参照してください。
- IBM watsonxの[接続の作成]にある:Dremioフォームで、認証タイプをPersonal Access Tokenに変更し、トークン情報を追加します。 (ユーザー名とパスワードによる認証は、Dremioクラウドインスタンスへの接続に使用できなくなりました)
- ポートがSSL対応であることを選択します。
DremioCloud インスタンスにデフォルトのホスト名を使用している場合は、変更する必要があります:
sql.dremio.cloud
に変更data.dremio.cloud
sql.eu.dremio.cloud
に変更data.eu.dremio.cloud
Prompt-tune the llama-2-13b-chat foundation modelCopy link to section
2024年2月1日
The Tuning Studio now supports tuning the llama-2-13b-chat foundation model. まず、 llama-2-70b-chat モデルのより大きな Prompt Lab をエンジニアに提示し、ユースケースに有効なプロンプト入力を探します。 Then tune the smaller version of the Llama 2 model to generate comparable, if not better outputs with zero-shot prompts. llama-2-13b-model はダラス地域で素早いチューニングが可能です。 詳しくはTuning Studioをご覧ください。
2024年1月26日までの週Copy link to section
AutoAIはすべての実験で順序データをサポートするCopy link to section
2024年1月25日
時系列実験だけでなく、すべてのAutoAI実験で順序付きデータを指定できるようになりました。 行索引に従って、トレーニング・データを順次に配列するかどうかを指定します。 入力データがシーケンシャルである場合、モデルの性能はランダムサンプリングではなく最新のレコードで評価され、ホールドアウトデータはn個のランダムレコードではなくセットの最後のn個のレコードを使用する。 時系列実験では連続データが必要だが、分類実験や回帰実験では任意である。
RAGアクセラレーターとのQ&ACopy link to section
2024年1月26日
サンプルプロジェクトをインポートすることで、検索拡張生成を使用した質疑応答ソリューションを実装できるようになりました。 サンプル・プロジェクトには、ドキュメントをHTMLやPDFからプレーン・テキストに変換し、ドキュメント・セグメントをElasticsearchのベクトル・インデックスにインポートし、ベクトル・インデックスにクエリするPython関数をデプロイし、トップNの結果を取得し、LLM推論を実行して質問に対する答えを生成し、答えが幻覚でないかチェックするノートブックやその他のアセットが含まれている。
ダークテーマに設定Copy link to section
2024年1月25日
watsonxのユーザーインターフェイスをダークテーマに設定できるようになりました。 アバターをクリックし、プロフィールと設定を選択してアカウントプロフィールを開きます。 次に、ダークテーマのスイッチをオンに設定する。 ダークテーマはRStudioとJupyterノートブックではサポートされていません。 プロフィールの管理については、設定の管理をご覧ください。
IBM watsonx.aiは東京リージョンで利用可能ですCopy link to section
2024年1月25日
Watsonx.aiは現在、東京のデータセンターで一般的に利用可能であり、契約時に希望する地域として選択することができる。 The Prompt Lab and foundation model inferencing are supported in the Tokyo region for these models:
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- granite-13b-chat-v2
- granite-13b-instruct-v2
- llama-2-70b-chat
- llama-2-13b-chat
東京地区からも購入可能:
- Prompt tuning the flan-t5-xl-3b foundation model with the Tuning Studio
- Synthetic Data Generatorで表形式のデータを生成し、モデルのトレーニングに使用する
サポートされているモデルの詳細については、 watsonx.aiで利用可能なサポートされている基礎モデルをご覧ください。
東京地区には日本語モデルのLlama 2があるCopy link to section
2024年1月25日
The elyza-japanese-llama-2-7b-instruct foundation model provided by ELYZA, Inc is available from watsonx.ai instances in the Tokyo data center. elyza-japanese-llama-2-7b-instruct モデルは、 Llama 2 モデルを日本語のテキストを理解し生成するように訓練したものです。 Meta
この新しいモデルは、一般的な作業に使用できる。 日本語の分類や抽出、日英間の翻訳に威力を発揮する。
2024年1月12日までの週Copy link to section
watsonx.aiRuntime(Watson Machine Learning)でIBMRuntime22.2のサポートが非推奨となりましたCopy link to section
2024年1月11日
IBMRuntime22.22は非推奨であり、2024年4月11日に削除される予定です。 2024年3月7日以降、22.2ランタイムを使用してノートブックやカスタム環境を作成することはできません。 また、22.2ランタイムに基づくソフトウェア仕様で新しいモデルをトレーニングすることはできません。
- 資産をサポートされているフレームワークやソフトウェア仕様に移行する方法については、「古いソフトウェア仕様やフレームワークの管理」を参照してください。
- ノートブック環境の詳細については、プロジェクトのノートブック・エディタのリソース・オプションを計算してください。
- 環境の変更について詳しくは、ノートブックの環境を変更するをご覧ください。
IBM Granite v1 foundation models are deprecatedCopy link to section
2024年1月11日
The IBM Granite 13 billion-parameter v1 foundation models are deprecated and will be withdrawn on 11 April 2024. バージョン1のモデルを使用している場合は、バージョン2のモデルに切り替えてください。
非推奨モデル | 非推奨日付 | 退会日 | 代替モデル |
---|---|---|---|
granite-13b-chat-v1 | 2024年1月11日 | 11 2024年4月 | granite-13b-chat-v2 |
granite-13b-instruct-v1 | 2024年1月11日 | 11 2024年4月 | granite-13b-instruct-v2 |
APIを使用してバージョン1モデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデル廃止に関する警告メッセージが含まれる。 2024年4月11日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
For more information about IBM Granite foundation models, see Foundation models built by IBM. 廃止と取り下げに関する詳細については、 基盤モデルのライフサイクル をご覧ください。