IBM watsonx.aiとIBM watsonx.governanceonIBM Cloud の新機能とアップデートについては、毎週チェックしてください。
AWS 上のIBM watsonx.governanceについては、 AWS上IBM watsonx.governanceの新機能を/span>のを参照してください。
2024年12月20日までの週
ONNX形式に変換されたモデルをデプロイする
2024年12月20日
ONNX形式に変換された機械学習や生成AIモデルを展開し、推論にエンドポイントを使用できるようになりました。 これらのモデルはダイナミック軸にも適応できる。 詳細については、 ONNX形式に変換されたモデルのデプロイを参照してください。
マルチソース SPSS Modeler フローの展開
2024年12月20日
モデルにデータを提供するために複数の入力ストリームを使用する SPSS Modeler フローの配置を作成できるようになりました。 詳細については、「 マルチソース SPSS Modeler フローの展開 」を参照してください。
Granite 3 インストラクター・ファンデーション・モデルの変更点を紹介
2024 年 12 月 18 日
以下の IBM ファンデーション・モデルに修正を加えた:
- granite-3-2b-instruct
- granite-3-8b-instruct
最新の修正により、 Granite 3.1の基盤モデルは、エージェントのタスクと固有機能のコーディングをより良くサポートするようになった。 これらの基礎モデルでサポートされるコンテキストウィンドウの長さは、4,096トークンから131,072トークンに増加した。 GraniteのモデルIDは変わらないが、モデルの重みは更新される。
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年12月13日までの週
AutoAIで RAGパターンを検索するノーコード・ソリューション(ベータ版)
2024年12月12日
AutoAIのユーザーインターフェースから、ユースケースに最適なRAGパターンの検索を自動化できるようになりました。 文書コレクションとテスト問題をロードし、ベクトルデータベースを選択し、RAGパターンを見つけるための高速パスアプローチの実験を実行します。 また、実験のコンフィギュレーション設定を確認し、変更することもできます。 実験によって生成されたパターンを比較し、最良のパターンを自動生成ノートブックまたはプロジェクトに保存されたノートブックとして保存する。
詳細は、 AutoAIによる RAGパターンの自動化を参照。
テンプレートを使ってAIサービスを展開する
2024年12月12日
事前に定義されたテンプレートを使用して、AIサービスを展開することができます。 AIサービステンプレートは、AIモデルをデプロイするための定義済みの構造と構成を提供することで、AIサービスをデプロイする標準化された方法を提供する。 これらのテンプレートは、ジェネレーティブAIアプリケーションのプログラミング・ロジックをカプセル化した、あらかじめ構築された展開可能なコード単位である。
AIサービステンプレートは、デプロイメントの作成、メタデータの生成、エクステンションの構築などのタスクを自動化し、開発者がアプリケーションのコアロジックに集中できるようにする。 AIサービスを展開する柔軟な方法を提供し、複数の入力とカスタマイズをサポートする。
詳しくは、 テンプレートを使ったAIサービスのデプロイをご覧ください。
最新のLlama foundation modelをオンデマンドで導入可能
2024年12月12日
Meta Llama 3.3 70B Instruct多言語foundation modelを、組織専用の専用ハードウェアに導入することができます。 Meta 、最新のfoundation modelは、より大きな llama-3-405b-instruct モデルと同様の機能を持つが、サイズはより小さく、特にコーディング、ステップバイステップの推論、ツール呼び出しに長けている。 フルモデル llama-3-3-70b-instruct-hf ) か、ホストに必要なリソースが少ない量子化バージョン llama-3-3-70b-instruct ) をデプロイできます。
ResourceハブまたはREST APIからDallasリージョンにオンデマンドでfoundation modelをデプロイする方法の詳細については、 オンデマンドで基盤モデルをデプロイするを参照してください。
Python クライアント・ライブラリによるオンデマンドでの基盤モデルのデプロイ
2024年12月12日
watsonx.ai Python クライアントライブラリを使用することで、ファンデーションモデルをオンデマンドでデプロイできるようになりました。 このアプローチを使用することで、大規模な計算リソースを必要とせずに、これらの強力な基礎モデルの機能にアクセスすることができます。 オンデマンドでデプロイされたFoundationモデルは、専用のデプロイメントスペースにホストされ、推論に使用することができます。
詳しくは、 基礎モデルをオンデマンドで展開するを参照してください。
SPSS Modeler チュートリアルの更新
11 2024年12月
最新の SPSS Modeler チュートリアルを 15回試して、 SPSS Modelerを実際に体験してください。
評価スタジオでAI資産を比較
2024年12月12日
評価スタジオを使用すると、使用ケースに合った定量的な指標とカスタマイズ可能な基準で、ジェネレーティブAI資産を評価および比較できます。 複数の資産のパフォーマンスを同時に評価し、結果の比較分析を見て、最適なソリューションを特定します。
詳しくは、 評価スタジオでAI資産を比較するをご覧ください。
ガバナンス・コンソールの強化
2024年12月12日
- watsonx.governanceモデルリスク・ガバナンス・ソリューションの強化
このリリースには以下の機能強化が含まれている:
- 新しいAI Model Onboarding Risk Identification質問表テンプレートは、モデルのオンボーディングプロセスで使用され、モデルに関連するリスクを特定するのに役立ちます。 このアンケートテンプレートは、ファウンデーションモデル・オンボーディングのワークフローで使用されます。
- 新しい「AIユースケースリスク特定」質問表テンプレートは、AIユースケースに関連するリスクを特定するために使用される。 このアンケートテンプレートは、ユースケースレビューのワークフローで使用されます。 この新しい質問表は、AIリスク識別質問表に代わるものである
- 新しい「AIユースケースとモデルのリスク特定」質問表テンプレートは、AIユースケースとモデルの組み合わせに関連するリスクを特定するのに役立つ。 このアンケートテンプレートは、ユースケースの開発と文書化のワークフローで使用されます。
- AIアセスメントワークフローがデフォルトで無効になりました。 このワークフローは、質問票評価ワークフローに置き換えられます。 ユースケースワークフローでアンケートテンプレートを直接設定できるようになりました。
- ワークフロー、ビュー、ダッシュボードが更新された。
詳細については、Governance コンソールのソリューション コンポーネントを参照してください。
- バグ修正とセキュリティ修正
バグフィックスとセキュリティフィックスが適用された。
詳しくは 9.0.0.5 5の新機能をご覧ください。
IBM watsonx.governanceはシドニー地域でご利用いただけます
9 2024年12月
IBMの watsonx.governanceは現在、シドニーのデータセンターで一般的に利用できる。 ご登録の際、ご希望の地域にシドニーをお選びいただけます。
シドニー地域で利用可能な製品機能の詳細については、サービスおよび機能の地域別利用可能性をご覧ください。
2024年12月6日までの週
ファウンデーション・モデルをダラス地域にオンデマンドで展開
6 2024年12月
厳選された基盤モデルのコレクションから選択し、組織専用のハードウェアに導入することができます。 専用の配備は、基礎モデルを推論する際に、より応答性の高いインタラクションを意味する。 オンデマンド基盤モデルのデプロイは、時間単位で課金されます。 詳しくは、対応基盤モデルとジェネレーティブAIアセットの課金詳細をご覧ください。
Resource hubまたはREST APIからのオンデマンドでのfoundation modelのデプロイの詳細については、オンデマンドでの基盤モデルのデプロイを参照してください。
ダラスとフランクフルト地域における「Meta最新のラマfoundation modelの推論
6 2024年12月
Meta Llama 3.370Bインストラクター多言語foundation modelは、ダラスとフランクフルト地域で統合可能です。 llama-3-3-70b-instructの foundation modelは、コーディング、ステップバイステップの推論、ツール呼び出しに長けている。 405bモデルに匹敵する性能を持つLlama 3.3foundation model・アップデートは、開発者にとって素晴らしい選択です。 IBMからの 発表をご覧ください。
詳しくは、サポートされているファンデーションモデルをご覧ください。
財団モデルを比較するためにベンチマークを見直す
5 2024年12月
foundation modelのベンチマークを確認し、利用可能な基礎モデルの能力を試してから学ぶ。 あなたのユースケースにとって最も重要なタスクについて、様々な基盤モデルがどのように機能するかを比較する。 詳細は、財団モデルのベンチマークを参照。
Microsoft Excelファイルは、Decision OptimizationのOPLモデルでは非推奨です
5 2024年12月
Microsoft Excelワークブック(.xlsおよび.xlsx)ファイルは、Decision OptimizationOPLモデルでの直接入力および出力には使用されなくなりました。 Excelファイルに接続するには、代わりにデータ・コネクタを使用します。 データコネクターはExcelファイルを.csvファイルに変換します。 詳しくは参照データを参照。
ONNX形式に変換されたモデルを展開するための新しいサンプルノートブック
3 2024年12月
ONNX形式に変換された機械学習や生成AIモデルを展開し、推論にエンドポイントを使用できるようになりました。 これらのモデルはダイナミック軸にも適応できる。 以下のサンプルノートブックをご覧ください:
詳しくは、watsonx.aiランタイムPythonクライアントのサンプルと例をご覧ください。
llama-3-8b-instructとllama-3-70b-instructの基礎モデルは非推奨です
2024 年 12 月 2 日
- 以下の基礎モデルは非推奨である。 これらの基礎モデルを使用しているプロンプトを修正する。
llama-3-8b-instruct
- 償却開始日:2024年12月2日
- 脱退日:2025年2月3日
- 代替モデル:llama-3-1-8b-instruct,llama-3-2-11b-vision-instruct
llama-3-70b-instruct
- 償却開始日:2024年12月2日
- 脱退日:2025年2月3日(シドニーでは3月31日)
- 代替モデル:llama-3-1-70b-instruct,llama-3-2-90b-vision-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
2024年11月29日までの週
Data Refineryの書き込みオプションに関するドキュメントの改善
2024年11月28日
データ・フローをエクスポートするための書き込みオプションとテーブル・オプションは、接続によって異なります。 これらのオプションについて説明するので、ターゲット・テーブルのオプションを選択する際の参考にしてほしい。 詳細については、 Data Refineryのターゲット接続オプションを参照してください。
2024年11月22日までの週
新しいwatsonxDeveloper Hub でコーディングを素早く開始
2024年10月21日
新しいデベロッパー・ハブで、ジェネレーティブAIソリューションのコーディングに必要なあらゆるものを見つけてください:
- 最初の API リクエストを行い、watsonx.ai のfoundation modelを推論します。
- AIアプリケーションに最適な基礎モデルとコードライブラリを見つける。
- watsonx.aiの機能を理解し、Curl、Node.js、またはPython でコード・スニペットをコピーする。
- ジェネレーティブAIのアプリケーションとソリューションの構築方法を、詳細なガイドで学びましょう。
- コミュニティに参加して、リソースや回答を見つけたり、他のユーザーと交流したりしましょう。
watsonxDeveloper Hub にアクセスしてください。
IBM watsonx.aiのコンポーネント・サービスの名称が変更された
2024年11月21日
以下のサービスが名称変更された:
- Watson Machine Learningはwatsonx.aiランタイムという名前になった
- Watson Studioはwatsonx.aiStudioという名前になった
ビデオ、ノートブック、コードサンプルの中には、これらのサービスを以前の名前で紹介し続けるものがあるかもしれない。
IBM watsonx.aiはシドニー地域で利用可能です
2024年11月21日
Watsonx.aiは現在、シドニーのデータセンターで一般的に利用可能で、サインアップ時にシドニーを希望地域として選択することができる。
シドニー地域で利用可能な基盤モデルおよび製品機能の詳細については、サービスおよび機能の地域別提供状況をご覧ください。
IBM Granite時系列基礎モデルとwatsonx.aiAPIを使用して将来の値を予測する(ベータ版)
2024年11月21日
時系列APIを使用して、ゼロショット推論で将来の値を予測できるIBM Granite時系列foundation modelモデルに、過去のデータ観測値を渡します。 watsonx.aiAPIの時系列予測メソッドは、ベータ機能として利用可能です。 詳細については、将来のデータ値の予測を参照。
Elasticsearchの推論 API からwatsonx.aiのテキスト埋め込みモデルを利用する
2024年11月21日
Elasticsearchバージョン8.16.0リリースでは、テキスト埋め込みタスクにwatsonx.ai foundation modelを使用する推論エンドポイントの作成がサポートされました。
詳しくはAPIを使ったテキストのベクトル化をご覧ください。
SPSS Modelerフローを展開スペースにプロモートする
2024年11月19日
プロジェクトをエクスポートしてから展開スペースにインポートしなくても、SPSS Modelerフローをプロジェクトから展開スペースに直接プロモートできるようになりました。 詳細については、 SPSS Modelerのフローとモデルのプロモートを参照してください。
2024年11月15日までの週
IBM「watsonx.aiデモチャットアプリは、アカウントをリンクすることで、トライアル制限なしで使用できます
2024年11月15日
IBM「watsonx.aiデモアカウントを「IBM Cloud watsonx.ai有料アカウントにリンクすることで、トークンの使用や時間制限なしにチャットアプリをご利用いただけます。 詳細については、 IBM watsonx.aiデモwatsonx.aiアカウントのリンクを/span>とを参照してください。
watsonx.ai Node.jsパッケージはLangChainから入手可能です
2024年11月11日
watsonx.ai Node.jsパッケージは、LangChain JavaScriptコミュニティ・ライブラリから利用可能です。 この統合は、基礎モデルの推論、テキスト埋め込み生成、画像からテキストへの変換やツール呼び出し機能を含むチャット交換の処理など、watsonx.aiの機能をサポートしている。 LangChainとの統合により、プロバイダー間の交換が容易になり、提供されるサービスを比較し、ニーズに最適なソリューションを見つけることができる一貫したインターフェイスを使用することで、これらのwatsonx.aiの機能を呼び出すことができます。
詳細については、Node.jsSDKを参照してください。
アセットを配置し、配置スペースからジョブを実行するには、タスク認証情報が必要になりました
2024年11月11日
配置ジョブを実行する際のセキュリティを向上させるため、配置スペースから 次のアセットを配置するには、タスクの資格情報を入力する必要があります:
- プロンプト・テンプレート
- AI サービス
- モデル
- Python 関数
- スクリプト
さらに、配置スペースから次の配置を作成するには、タスク資格情報を入力する必要があります:
- オンライン
- バッチ
また、配置スペースから配置ジョブを作成および管理するには、タスク資格情 報を使用する必要があります。
タスクのクレデンシャルを設定して API キーを生成する方法については、タスクのクレデンシャルを追加するを参照してください。
2024年11月8日までの週
AIサービスによる生成的AIアプリケーションの展開
7 2024年11月
watsonx.aiのAIサービスを使ってアプリケーションを展開できるようになりました。 AIサービスは、ジェネレーティブAIのユースケースのロジックをキャプチャするために使用できる、デプロイ可能なコード単位である。 Python関数は機械学習資産をデプロイする伝統的な方法だが、AIサービスはストリーミングのような生成的AIアプリケーションのコードをデプロイする、より柔軟なオプションを提供する。 AIサービスが正常にデプロイされたら、アプリケーションからの推論にエンドポイントを使用できます。
詳細については、AIサービスの導入を参照してください。
granite-13b-chat-v2、llama2-13b-dpo-v7、およびmt0-xxl-13bファンデーションモデルは非推奨です
4 2024年11月
- 以下の基礎モデルは非推奨である。 これらの基礎モデルを使用しているプロンプトを修正する。
granite-13b-chat-v2
- 償却開始日:2024年11月4日
- 脱退日:2025年2月3日
- 代替モデル:granite-3-8b-instruct
llama2-13b-dpo-v7
- 償却開始日:2024年11月4日
- 脱退日:2024年12月4日
- 代替モデル:llama-3-1-8b-instruct
mt0-xxl-13b
- 償却開始日:2024年11月4日
- 脱退日:2024年12月4日
- 代替モデル:llama-3-1-8b-instruct,llama-3-2-11b-vision-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
2024年11月1日までの週
watsonx.aiに新しいサードパーティ製all-minilm-l6-v2エンベッディング・モデルが追加されました
2024年10月29日
オープンソースの自然言語処理(NLP)およびコンピュータビジョン(CV)コミュニティによるall-minilm-l6-v2テキスト埋め込みモデルが、watsonx.aiAPIのテキスト埋め込みメソッドから利用できるようになりました。 このモデルを使用して、テキストをテキストマッチングや検索タスクで使用するのに適したテキスト埋め込みベクトルに変換する。 モデルの詳細については、以下のトピックを参照してください:
Mistral Large foundation modelの推論価格の引き下げ
2024年10月29日
Mistral Large foundation modelモデルに提出するインプットの価格は、1,000トークンあたり00.01米ドルから00.003米ドルに減少しました。 foundation modelによって生成されるアウトプットの価格は変更されず、アウトプットのトークンの価格は00.01 USD/1,000トークンのままです。 この価格変更は、mistral-large foundation modelが使用可能なすべての地域に適用される。
詳しくは、サポートされているファンデーションモデルをご覧ください。
IBMランタイム23.11の廃止について
2024年10月28日
IBMRuntime23.11は非推奨です。 2024年11月21日以降、23.1ランタイムを使用して新しいノートブックやカスタム環境を作成することはできません。 また、23.1ランタイムに基づくソフトウェア仕様で新しいデプロイメントを作成することはできません。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、IBMRuntime24.11に切り替えてください。
- 環境の変更については、ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
テキスト抽出APIで複雑なビジネス文書を簡素化
2024年10月28日
テキスト抽出メソッドは、watsonx.aiREST APIで一般的に利用できるようになった。 IBMが開発した文書理解テクノロジーを活用して、複雑なビジネス文書を簡素化し、生成的AIワークフローの一部として基礎モデルで処理できるようにします。 テキスト抽出APIは、画像、ダイアグラム、表などの文書構造からテキストを抽出する。 詳しくは、文書からテキストを抽出するを参照してください。
APIは、有料プランのユーザーであればすべての地域で利用できる。 料金の詳細については、ドキュメントテキスト抽出料金表をご覧ください。
2024年10月25日までの週
Decision Optimization実験のテーブルを比較して、シナリオ間の違いを見る
2024年10月23日
Prepare dataまたはExplore solutionビューのいずれかで、Decision Optimization実験のテーブルを比較できるようになりました。 この比較は、隣り合わせに表示されたシナリオ間のデータ値の違いを見るのに便利である。
詳しくは、 シナリオ表の比較を参照。
Granite 3.0の新モデルがwatsonx.aiに登場
2024年10月21日
watsonx.ai:から、IBMが提供する以下の3.0世代のGraniteFoundationモデルを推論できるようになった:
- GraniteInstructモデルを全地域で使用:要約、問題解決、テキスト翻訳、推論、コーディング、関数呼び出しタスクなどのタスクに、新しいインストラクトチューニングされた軽量でオープンソースの言語モデルを使用します。 以下のモデルバリエーションに対応:
- granite-3-2b-instruct
- granite-3-8b-instruct
- ダラス地域のGraniteガーディアンモデル:新しい「Graniteガーディアンモデルを使用してください。これは「Graniteインストラクターモデルを微調整したもので、プロンプトと応答におけるリスクを検出するように設計されています。 以下のモデルバリエーションに対応:
- granite-guardian-3-2b
- granite-guardian-3-8b
詳しくは、対応ファンデーションモデルをご覧ください。
テキスト再ランクAPIで検索タスクを強化
2024年10月21日
テキストの再ランクメソッドは、一般的にwatsonx.aiREST API で利用できる。 この新しいAPIメソッドを、新しくサポートされたms-marco-minilm-l-12-v2モデルのようなリランカー基礎モデルと一緒に使って、指定されたクエリに対する類似性に基づいて、一連の文書パッセージを並べ替える。 再ランク付けは、回答検索のワークフローに精度を追加する便利な方法です。 詳しくは、文書のパッセージの再ランク付けを参照のこと。
ピックストラルの新モデル12Bがフランクフルトとロンドン地区で販売開始
2024年10月21日
フランクフルトとロンドンのデータセンターにあるwatsonx.aiで、Mistral AIのPixtral12B foundation modelモデルを使用できるようになりました。
Pixtral12Bは、画像とテキストをインターリーブしたデータで学習された、画像からテキスト、テキストからテキストという機能を持つネイティブのマルチモーダルモデルです。 foundation modelは、可変の画像サイズをサポートし、指示に従う作業を得意とする。 詳しくは、対応ファンデーションモデルをご覧ください。
llama-3-2-11b-vision-instructと llama-guard-11b-visionモデルをフランクフルトとロンドン地域で使用する
2024年10月21日
llama-3-2-11b-vision-instructと llama-guard-11b-visionモデルを、ダラス・データセンターに加え、フランクフルト・データセンターとロンドン・データセンターでも使用できるようになりました。 詳細については、 IBM Cloudのサービスおよび機能の地域別利用可能状況と画像でチャットを参照してください。
2024年10月18日までの週
アカウント・リソース・スコープはデフォルトで有効
2024年10月17日
アカウントの'Resource scope
設定は、デフォルトで'ON
に設定されています。 ただし、以前にリソーススコープの設定値を「ON
または「OFF
いずれかに設定した場合は、現在の設定は変更されない。
リソース・スコープが有効な場合、現在選択されているIBM Cloudアカウントにないプロジェクトにはアクセスできません。 複数のIBM Cloudアカウントに所属している場合、すべてのプロジェクトが一緒に表示されないことがあります。 例えば、「すべてのプロジェクト」ページにすべてのプロジェクトが表示されないことがあります。 他のアカウントのプロジェクトを見るには、アカウントを切り替える必要があります。
フランクフルト地域ではGraniteの foundation modelが利用可能
2024年10月15日
IBMの granite-20b-code-instruct foundation modelは、コーディング関連の指示に対応するように設計されている。 フランクフルトのデータセンターでホスティングされているプロジェクトでは、コーディング作業やコーディングアシスタントの構築に役立つfoundation modelを使用できます。 モデルの詳細については、サポートされる財団モデルを参照のこと。
2024年10月11日までの週
新しいライセンス特典
2024年10月10日
IBM watsonx.aiとIBM watsonx.governance にオンプレミス・ライセンスのメリットを適用するために、BYOL (Bring Your Own License) が可能になりました。
詳細については、 SaaSへのBYOL(Bring Your Own License)のアクティベーションを参照してください。
SPSS ModelerのText Analyticsで日本語テキストデータを分析する
9 2024年10月
テキストリンク分析ノードやテキストマイニングノードなど、SPSS Modelerのテキスト分析ノードを使用して、日本語で書かれたテキストデータを分析できるようになりました。
watsonx.aiチャット API で会話型ワークフローを構築する
2024年10月8日
watsonx.aiチャット API を使用して、サードパーティのツールやサービスへのエージェント主導の呼び出しを含むジェネレーティブ AI 機能をアプリケーションに追加します。
詳しくは、以下のトピックを参照してください。
カスタム・ファンデーション・モデルのための新しいソフトウェア仕様
2024年10月7日
foundation modelのデプロイメントで、新しいソフトウェア仕様「watsonx-cfm-caikit-1.1
」を使用できるようになりました。 この仕様はvLLMライブラリに基づいており、最新のデコーダのみの大規模言語モデルに適している。 vLLMライブラリの詳細については、「vLLM」を参照してください。カスタム・foundation modelでの仕様の使用については、「カスタム・foundation modelの展開計画」を参照してください。
granite-7b-labおよびllama3-llava-next-8b-hf基盤モデルは非推奨です
2024年10月7日
granite-7b-lab foundation modelは非推奨であり、2025年1月7日に廃止されます。 このfoundation modelを使用しているすべてのプロンプトを修正する。
- 償却開始日:2024年10月7日
- 脱退日:2025年1月7日
- 代替モデル:granite-3-8b-instruct
llama3-llava-next-8b-hfマルチモーダルfoundation modelも非推奨であり、2024年11月7日に廃止される。 新しくリリースされたLlama 3.2ビジョンモデルのいずれかを、画像からテキストへの生成タスクに使用できるようになりました。
- 償却開始日:2024年10月7日
- 脱退日:2024年11月7日
- 代替モデル:llama-3-2-11b-vision-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
2024年10月4日までの週
環境とソフトウェア仕様の更新
3 2024年10月
IBMRuntime23.11に含まれるTensorflowと Kerasのライブラリーが新しいバージョンに更新されました。 これは、ノートブックでのコードの実行方法に影響を与えるかもしれない。 詳細は、watsonx.aiStudio(旧Watson Studio)ランタイムに含まれるライブラリ・パッケージを参照。
ランタイム23.11は、今年後半にIBMランタイム24.11に取って代わられる予定だ。 度重なる混乱を避けるため、今すぐIBMRuntime24.11に切り替え、デプロイメントには関連するソフトウェア仕様を使用することをお勧めします。
- 環境の変更については、ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
フランクフルト地域におけるwatsonx.governanceプランの提供とOpenScaleレガシープランの廃止
3 2024年10月
フランクフルト地域でWatson OpenScaleをプロビジョニングするためのwatsonx.governanceレガシー・プランは廃止されます。 IBM Watson OpenScaleは、新規サブスクリプションや新規インスタンスのプロビジョニングができなくなります。 OpenScaleの機能については、watsonx.governanceEssentialsプランにご加入ください。
- プランの詳細は、watsonx.governanceplansをご覧ください。
- まずは、 watsonx.governanceのセットアップをご覧ください。
注記:
- 既存のレガシープランのインスタンスは、サポート終了日(未定)まで引き続き運用され、サポートされます。
- IBM Watson OpenScaleの既存のお客様は、引き続きIBM Watson OpenScaleを使用してサポート・チケットを開くことができます。
2024年9月27日までの週
マルチモーダル11Bおよび90Bモデルを含むLlama 3.2ファンデーションモデルが利用可能
2024年9月25日
本日のリリースにより、MetaAIの以下のファウンデーションモデルがダラス地域から利用可能となる:
- Llama 3.2指導モデル
- 大きな入力(128,000トークンのコンテキストウィンドウ長)をサポートし、1Bと 3Bのパラメータサイズでモバイルデバイスに収まるほど軽量で効率的な、汎用性の高い大規模言語モデル。 これらのモデルを使用して、高度にパーソナライズされたオンデバイス・エージェントを構築することができます。
- Llama 3.2ビジョンモデル
- 文書レベルの理解、図表の解釈、画像のキャプション付けなど、画像イン、テキストアウトのユースケースのために構築された、微調整されたモデル。
- ラマガードビジョンモデル
- 有害なコンテンツをフィルタリングするために設計された強力なガードレールモデル。
詳しくは、サポートされているファンデーションモデルをご覧ください。
ガバナンス・コンソールの強化
2024年9月25日
このリリースには機能強化とバグ修正が含まれています。
- ダッシュボードのカスタムタブ
ダッシュボードにカスタムタブを3つまで表示できるようになりました。
- 積み重ね棒グラフ
ダッシュボードおよびビュー デザイナーで積み上げ棒グラフを設定できるようになりました。
- アンケート回答者の回答に基づいてフィールド値を設定する式の使用
フィールドの値に式を入力できるようになった。 For example, you can enter
[$TODAY$]
for the current date,[$END_USER$]
for the name of the signed on user, or[$System Fields:Description$]
to set the field to the value of the Description field of the object.- watsonx.governanceモデルリスク・ガバナンス・ソリューションの強化
このリリースには以下の機能強化が含まれている:
- 新しいモデルグループオブジェクトタイプは、類似したモデルをグループ化する方法を提供します。 例えば、ビジネス上の問題を解決するために同じようなアプローチを使用するモデルのバージョンは、モデルグループに属するかもしれません。
- 新しいユースケース・リスク・スコアリングの計算では、ユースケースの基本的なモデルがどのように機能しているかを全体的に把握するために、違反ステータスごとのメトリクスをリスク・スコアに集約します。
- 新しいDiscovered AIライブラリ・ビジネス・エンティティは、組織内で公認されたガバナンス・プラクティスに従っていないAI(「シャドーAI」とも呼ばれる)のデプロイメントを保存するデフォルトの場所を提供する。
- ワークフロー、ビュー、ダッシュボードが更新された。
詳細については、Governance コンソールのソリューション コンポーネントを参照してください。
- バグ修正とセキュリティ修正
バグフィックスとセキュリティフィックスが適用された。
詳しくは 9.0.0.44の新機能をご覧ください。
AutoAISDK(ベータ版)でRAGパターンを自動化する
2024年9月23日
AutoAI PythonSDKを使用して、データとユースケースに基づいて最適化されたRAG(Retrieval-augmented Generation)パターンの設計と展開を自動化し、高速化します。 RAGには、どの大規模言語モデルを選択するか、接地文書をどのようにチャンクするか、どれだけの文書を検索するかなど、多くの設定パラメータが用意されている。 AutoAIは、制約のある設定オプションの完全な探索と評価を自動化し、最適化メトリックに対する性能でランク付けされたパターンパイプラインのセットを生成します。
機能の詳細とAutoAIRAG実験のコーディングに関する使用上の注意については、「 AutoAISDK(ベータ版)によるRAGパターンの自動化」を参照してください。
Spark3.3ランタイムの削除
2024年9月23日
IBM Analytics EngineのSpark3.3ランタイムのサポートは2024年10月29日までに終了し、デフォルトのバージョンはSpark3.4ランタイムに変更されます。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、Spark3.44に切り替えてください。
2024年10月29日以降、Spark3.3のランタイムを使用してノートブックやカスタム環境を作成、実行することはできません。 また、Spark3.3ランタイムに基づくソフトウェア仕様でデプロイメントを作成または実行することはできません。
- インスタンスをSpark3.44にアップグレードするには、インスタンスのデフォルトランタイムの置き換えを参照してください。
- 利用可能なノートブック環境の詳細については、ノートブックの環境を変更するを参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
2024年9月20日までの週
Prompt Labのマルチモーダルfoundation modelの推論
2024年9月19日
Prompt Labで画像を追加し、チャットモードでマルチモーダルfoundation modelをプロンプトして画像についてチャットできるようになりました。 ドキュメントのグラウンディングに加えて、画像をアップロードし、画像のビジュアルコンテンツについて、画像からテキストへのタスクをサポートするfoundation modelモデルに質問できるようになりました。 詳しくは、文書や画像を使ったチャットをご覧ください。
新モデルllama3-llava-next-8b-hfがダラス地区で販売開始
2024年9月19日
IBM watsonx.aiの新しいllama3-llava-next-8b-hfマルチモーダルfoundation modelを使用して、画像からテキストへのタスクを支援できるようになりました。
Large Language and Vision AssistantLLaVa)は、マルチモーダル・チャットボットのユースケースのために、事前学習された大規模言語モデルと事前学習された視覚エンコーダを組み合わせたものです。 LLaVA NeXT Llama3は、より多様で高品質な画像およびテキストデータで学習されます。 詳しくは、対応ファンデーションモデルをご覧ください。
watsonx.ai Node.jsSDKを使ってジェネレーティブAIアプリケーションをコーディングする
2024年9月18日
watsonx.ai Node.jsパッケージを使用して、IBM watsonx as a Serviceの基礎モデルをプログラムで推論し、調整します。 詳細については、Node.jsSDKを参照してください。
財団モデルの知的財産補償方針を理解する
2024年9月18日
IBMの知的財産補償ポリシーをよりよく理解し、watsonx.ai でどの基盤モデルに知的財産補償が適用されているかを確認できるようになりました。 詳しくは、モデルタイプと知財補償を参照のこと。
2024年9月13日までの週
配置スペースでSPSS Modelerフロー用のバッチジョブを作成する
2024年9月10日
展開スペースでSPSS Modelerフローのバッチジョブを作成できるようになりました。 フローでは、フローからバッチジョブを作成するたびに、実行するターミナルノードを柔軟に決定できます。 フローにバッチジョブをスケジュールすると、バッチジョブはフローで指定したデータソースと出力ターゲットを使用します。 これらのデータ ソースとデータ出力のマッピングは、データ ソースとデータ ターゲットが配置スペースにもあれば自動的に行われます。 フローからバッチジョブを作成する方法の詳細については、 SPSS Modelerフローの展開ジョブを作成するを参照してください。
展開スペースのフローとモデルの詳細については、「 SPSS Modelerのフローとモデルを展開する」を参照してください。
2024年9月6日までの週
ダラス地域のwatsonx.aiから推論に独自のfoundation modelを持ち込む
3 2024年9月
IBMが監修した基盤モデルで作業するだけでなく、独自の基盤モデルをアップロードしてデプロイすることもできるようになりました。 モデルが配備され、watsonx.ai に登録されたら、カスタムモデルを推論するプロンプトをプログラムまたはPrompt Labから作成します。 この機能はダラス地区でのみ利用可能。
カスタム基盤モデルのアップロードの詳細については、カスタム基盤モデルのデプロイを参照してください。 カスタム・ファンデーション・モデルのプラン情報と請求の詳細については、watsonx.aiRuntime プランをご覧ください。
文書テキスト抽出APIで複雑なビジネス文書を簡素化
3 2024年9月
IBMが開発した文書理解テクノロジーを適用して、複雑なビジネス文書を簡素化し、生成的AIワークフローの一部として基礎モデルで処理できるようにします。 文書テキスト抽出APIは、画像、ダイアグラム、表などの文書構造からテキストを抽出する。 watsonx.aiREST APIのテキスト抽出方法はベータ機能です。
詳しくは、文書からテキストを抽出するを参照してください。
Granite foundation modelの修正とアップデートが可能
3 2024年9月
granite-20b-code-instruct foundation modelをバージョン1.1.0に修正。 最新の改良版は、コードと自然言語ドメインからの高品質なデータを混合して学習させ、モデルの推論能力と命令追従能力を向上させている。
以下の基礎モデルが更新され、プロンプトでサポートされるコンテキストウィンドウの長さ(入力+出力)のサイズが8192から128000に増加した:
- granite-3b-code-instruct
- granite-8b-code-instruct
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年8月30日までの週
llama-2-13b-chatとllama-2-70b-chatは非推奨です
2024年8月26日
llama-2-13b-chatと llama-2-70b-chatのファンデーションモデルは非推奨であり、2024年9月25日に廃止されます。 これらの基礎モデルを使用しているプロンプトを修正する。
- llama-2-13b-chat
- 廃止日:2024年8月26日
- 脱退日:2024年9月25日
- 代替モデル:llama-3.1-8b-instruct
- llama-2-70b-chat
- 廃止日:2024年8月26日
- 脱退日:2024年9月25日
- 代替モデル:llama-3.1-70b-instruct
APIを使ってllama-2-13b-chatと llama-2-70b-chatモデルに送信された推論リクエストは、出力を生成し続けますが、近々モデルが取り下げられるという警告メッセージが含まれます。 2024年9月25日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。
2024年8月23日までの週
プロジェクトやスペースの共同作業者としてユーザーグループを追加する
2024年8月22日
IBM Cloudアカウントに IAM アクセス・グループが含まれている場合、プロジェクトとスペースにユーザー・グループを追加できるようになりました。 IBM Cloudアカウント管理者は、アクセス・グループを作成することができます。 詳細については、「IAMアクセス・グループの操作」を参照してください。
AutoAI時系列実験のための異常予測機能のサポート終了
2024年8月19日
AutoAIの時系列モデル予測における異常値(外れ値)を予測する機能(現在ベータ版)は非推奨となり、2024年9月23日に削除される予定です。 標準的なAutoAIの時系列実験は、現在も完全にサポートされている。 詳細は時系列実験の構築を参照。
2024年8月16日までの週
IBMのスレート埋め込み型新モデルが全地域で利用可能に
2024年8月15日
IBMSlateエンベッディング・モデルは、クエリー、パッセージ、ドキュメントなどのさまざまな入力に対してエンベッディングを生成する機能を企業に提供します。 新モデルのslate-125m-english-rtrvr-v22とslate-30m-english-rtrvr-v22は、v1モデルよりも大幅に改善されている。 現在、slate-125m-english-rtrvrおよびslate-30m-english-rtrvrモデルをご使用の場合は、新しいv2Slateモデルに切り替えて、モデルの改良をご利用ください。
詳しくは、対応エンコーダ基盤モデルをご覧ください。
Prompt Labで、ユーザー入力とfoundation model出力のAIガードレールを別々に設定する
2024年8月15日
Prompt Labで foundation modelのプロンプトを試す際に、有害なコンテンツを発見して削除するAIのガードレールの感度を調整します。 ユーザー入力とモデル出力のテキストに対して異なるフィルター感度レベルを設定でき、効果的なAIガードレール設定をプロンプトテンプレートに保存できる。
詳しくは、有害コンテンツの削除をご覧ください。
2024年8月9日までの週
プロンプト・テンプレート評価のためにプロジェクトからテスト・データを選択する
2024年8月8日
プロジェクトでプロンプトテンプレートを評価する際に、プロジェクトアセットを選択して評価用のテストデータを選択できるようになりました。 詳細については、「プロジェクトでのプロンプトテンプレートの評価」を参照してください。
新しいllama-3-1-70b-instructモデルがIBM watsonx.aiで利用可能になりました
2024年8月7日
IBMの watsonx.aiで、Metaの最新のLlama 3.1基礎モデルを700億パラメータサイズで使用できるようになりました。
Llama 3.1シリーズの基礎モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルです。 このモデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語に対応している。 詳しくは、対応ファンデーションモデルをご覧ください。
RAGアクセラレーターとのQ&Aを更新
6 2024年8月
Q&A with RAG accelerator1.2サンプル・プロジェクトには、以下の改良が含まれています:
検索支援型ジェネレーション(RAG)実装の次の段階である、ユーザーフィードバックの収集と回答品質の分析にお役立てください。 人気のあるトピックを表示する教師なしトピック検出による分析、トピック別に生成された回答に対するユーザーの満足度、トピック別の検索スコアを含む。
IBM granite-7b-labおよびMeta Llama 3.1ファンデーションモデルに最適化された新しいプロンプトテンプレート。
watsonx.ai PythonライブラリのRAGユーティリティと、製品、エリアなどで検索するターゲットベクター検索フィルターを使用する合理化されたコード。
2024年8月2日までの週
新しいllama-3-1-8b-instructモデルがIBM watsonx.aiで利用可能になりました
1 2024年8月
IBMの watsonx.aiで、Metaの最新のLlama 3.1基礎モデルを80億パラメータサイズで使用できるようになりました。
Llama 3.1シリーズの基礎モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルです。 このモデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語に対応している。 詳しくは、対応ファンデーションモデルをご覧ください。
ワークスペースとAIのユースケースを関連付ける
1 2024年8月
AIユースケースの作成フローは、AIのライフサイクルとより密接に連携するように変更されている。 AIのユースケースの要点を定義したら、ワークスペースを関連付け、AIソリューションのフェーズに合わせて資産を整理する。 例えば、開発または検証フェーズのアセットにはプロジェクトまたはスペースを関連付け、運用フェーズのアセットにはスペースを関連付ける。
詳細は、ワークスペースとAIユースケースの関連付けを参照。
2024年7月26日までの週
ランタイム24.1における Python 3.11およびR4.3フレームワークとソフトウェア仕様のサポートを発表
2024年7月25日
Python 3.11とR4.33に基づく最新のデータサイエンス・フレームワークを含むIBMRuntime24.11を使用して、JupyterノートブックとRスクリプトを実行し、モデルをトレーニングできるようになりました。 7月29日からは、デプロイメントを実行することもできる。 IBMRuntime24.1フレームワークとソフトウェア仕様を使用するように、アセットとデプロイメントを更新してください。
- IBMRuntime24.1リリースと、Python 3.10およびR4.2用の付属環境については、ノートブック環境を参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
Jupyter Notebookエディターの拡張版が利用可能に
2024年7月25日
Runtime24.1ベースの環境でノートブックを実行している場合、これらの機能拡張を使ってコードを操作することができます:
- コードを自動的にデバッグ
- ノートブックの目次を自動生成する
- コードの横の行番号を切り替える
- セルの内容を折りたたみ、コードと出力を並べて表示することで、生産性を向上
詳細はJupyterノートブックエディタを参照。
Runtime24.11でサポートされるNatural Language Processorトランスフォーマ埋め込みモデル
2024年7月25日
新しいRuntime24.1環境では、自然言語処理(NLP)変換埋め込みモデルを使用して、文章や一節の意味を捕捉するテキスト埋め込みを作成し、検索を補助する生成タスクに役立てることができるようになりました。 詳細はエンベッディングを参照。
Runtime24.1では、新しい特殊なNLPモデルが利用可能です
2024年7月25日
Runtime24.1環境には、新たに以下の特殊なNLPモデルが追加されました:
- テキストコンテンツに含まれる憎悪的、罵倒的、または冒涜的なコンテンツ(HAP)を検出・識別できるモデル。 詳細はHAP検出を参照。
- 金融、サイバーセキュリティ、生物医学に関連するトピックに対応できる3つの事前学習済みモデル。 詳細については、カスタム分類モデルによるテキストの分類を参照してください。
キーポイント要約を使用して、大量のテキストから詳細な洞察を引き出す
2024年7月25日
ノートブックでKey Point Summarizationを使用すると、人々の意見を表す大量のテキスト(製品レビュー、アンケート回答、ソーシャルメディア上のコメントなど)から、詳細で実用的な洞察を抽出できるようになりました。 その結果は、処理しやすい組織的で階層的な方法で提供される。 詳しくは、キーポイント要約をご覧ください
RStudioバージョン更新
2024年7月25日
プライベート・クラウドとパブリック・クラウドで一貫したユーザー・エクスペリエンスを提供するため、IBM watsonx用RStudioIDE は、2024 年 7 月 29 日にRStudioServer2024.04.1および R4.3.1に更新されます。 RStudioの新バージョンでは、多くの機能強化やセキュリティ修正が行われています。 詳細は、RStudioServer2024.04.1リリースノートを参照してください。 大きな互換性の問題は予想されないが、ユーザーは以下の表に記載されているいくつかのパッケージのバージョン変更に注意する必要がある。
アップグレード後にプロジェクトからRStudioIDE を起動する場合は、RStudioワークスペースをリセットして、R4.3.1パッケージのライブラリパスがRStudioServer によってピックアップされるようにします。
ダラス、フランクフルト、ロンドンのIBM watsonx.aiで Mistral Largeモデルの新バージョンが利用可能になりました
2024年7月24日
現在、ダラス、フランクフルト、ロンドンのデータセンターで、IBM watsonx.ai上のMistral AIからMistral Large 2 foundation modelを使用することができます。
Mistral Large 2モデルは11の言語をサポートし、テキスト理解、コード生成、高度な推論に精通しています。 詳しくは、対応ファンデーションモデルをご覧ください。
新モデルllama-3-405b-instructがダラス地区で販売開始
2024年7月23日
ダラスのデータセンターにあるIBM watsonx.aiで、Metaのllama-3-405b-instruct foundation modelを使用できるようになりました。
llama-3-405B-instructv3.1)モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルを企業に提供し、これまでにリリースされたオープンソースモデルとしては最大規模です。 このfoundation modelは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 詳しくは、対応ファンデーションモデルをご覧ください。
merlinite-7bモデルは非推奨
2024年7月22日
merlinite-7b foundation modelは非推奨であり、2024年8月22日に廃止される。 このfoundation modelを使用しているすべてのプロンプトを修正する。
- 廃止日:2024年7月22日
- 脱退日:2024年8月22日
- 代替モデル:mixtral-8x7b-instruct-v01
APIを使用してmerlinite-7bモデルに提出された推論リクエストは、出力を生成し続けるが、近日中のモデル廃止についての警告メッセージが含まれる。 2024年8月22日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
2024年7月12日までの週
フランクフルトとダラスで新モデル「Mistral Large」を発表
9 2024年7月
フランクフルトとダラスのデータセンターで、IBM watsonx.ai上のMistral AIからMistral Large foundation modelを使用できるようになりました。
Mistral Largeは、トップクラスの推論機能を備えた高性能な大規模言語モデルを企業に提供します。 このfoundation modelは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 詳しくは、対応ファンデーションモデルをご覧ください。
2024年7月5日までの週
データ・ソース・タイプ別に分類されたコネクタ
05 2024年7月
接続の作成時に、コネクタがデータ・ソース・タイプ別にグループ化され、コネクタを見つけやすく、選択しやすくなりました。 たとえば、MongoDBデータ・ソース・タイプには、IBM Cloud Databases for MongoDBと MongoDBコネクターが含まれます。
さらに、新しいRecentsカテゴリーには、接続の作成に使用した最新の6つのコネクターが表示されます。
手順については、プロジェクトにデータ・ソースへの接続を追加するを参照してください。
Prompt Labで foundation modelのプロンプトに文脈情報を追加する
4 2024年7月
プロンプトに関連するコンテキスト情報を根拠データとして追加することで、「foundation model」が検索機能付き生成(RAG)の使用例において事実に基づいた最新の回答を生成できるようにします。 関連文書を素早くアップロードしたり、関連データのあるサードパーティのベクターストアに接続したりできる。 新しい質問が提出されると、その質問は、関連する事実の根拠データを照会するために使用されます。 上位の検索結果と元の質問は、foundation modelがその出力に関連する事実を組み込むのを助けるために、モデル入力として提出される。
詳細については、 foundation modelのプロンプトを文脈情報に基づかせるを参照してください。
Cloud Object StorageLiteプランの変更
2024 年 7 月 1 日
2024年7月1日から、watsonx.aiと watsonx.governanceの30日間トライアルにサインアップすると自動的にプロビジョニングされるCloud Object StorageLiteプランは、トライアル終了後に失効する。 30日間のトライアル期間中であれば、いつでもCloud Object StorageLiteインスタンスをFree Tierオプション付きのStandardプランにアップグレードできます。
2024年7月1日以前にプロビジョニングしたライトプラン付きの既存のCloud Object Storageサービスインスタンスは、2024年12月15日まで保持されます。 2024年12月15日までにCloud Object StorageサービスをStandardプランにアップグレードする必要があります。
Cloud Object Storageのサービスプランをご覧ください。
2024年6月21日までの週
外部の大規模言語モデル(LLM)用のプロンプトを管理するための分離されたデプロイメントを作成する
21 2024年6月
切り離されたプロンプトテンプレートは、GoogleVertex AI、Azure OpenAI,、AWSBedrockなどのサードパーティプロバイダーによってホストされているLLMのプロンプトテンプレートを評価するための新しいアセットである。 プロンプト・テンプレートの出力を生成する推論はリモート・モデル上で行われるが、watsonx.governanceメトリクスを使用することで、プロンプト・テンプレートの出力を評価することができる。 また、ガバナンス・ソリューションの一環として、AIのユースケースにおいて、切り離されたデプロイメントと切り離されたプロンプト・テンプレートを追跡することもできる。
詳しくは、以下を参照してください。
デプロイジョブのリクエストには、タスク認証情報が必要です
2024年6月19日
デプロイジョブを実行する際のセキュリティを向上させるため、ジョブを要求するユーザは、APIキーの形式でタスク認証情報を提供する必要があります。 この条件は2024年8月15日から施行される。 APIキーの生成の詳細については、タスク認証情報の追加を参照。
EUのAI法適用のためのユースケースの評価
2024年6月19日
新しいEU AI法適用性評価を利用すれば、簡単なアンケートに答えて、自社のAIユースケースを評価し、それがEU AI法の適用範囲内かどうかを判断することができます。 アセスメントは、ユースケースが該当するリスクカテゴリー(禁止、高、限定、最小)を特定するのにも役立つ。 詳細については、ガバナンス・コンソールのソリューション・コンポーネントの適用性評価を参照してください。
2024年6月7日までの週
ガバナンス・コンソールIBM OpenPages)を使用してリスクとコンプライアンス活動を管理する
7 2024年6月
Watsonx.governanceは、ガバナンス・コンソールとオプションで統合できるようになった。 IBM OpenPages,の Model Risk Governance モジュールをインストールしている場合、AI ユースケースを構成して Governance コンソールとガバナンス事実を同期させることができます。 Governance コンソールでは、ガバナンスおよびコンプライアンスプロセスの一環として、ユースケースの作成、ガバナンスアクティビティの表示、タスクの管理、ワークフローの実装を行うことができます。 詳しくは、以下を参照してください。
2024年5月31日までの週
IBM Watson Pipelinesは IBMOrchestration Pipelinesになりました
2024年5月30日
新しいサービス名は、AIのライフサイクルの一部を反復可能なフローに編成する機能を反映している。
プロジェクトをタグ付けして簡単に検索
2024 年 5 月 31 日
プロジェクトにタグを付けて、グループ分けや検索を簡単にできるようになりました。 新しいプロジェクトを作成するとき、またはすべてのプロジェクトのリストからタグを割り当てます。 タグでプロジェクトのリストをフィルタリングして、関連するプロジェクトのセットを取得します。 詳しくは、プロジェクトの作成をご覧ください。
新しいデータソースに接続するMilvus
2024 年 5 月 31 日
Milvus 接続を使用して、 Milvus ベクターストアにアクセスするための認証情報と接続の詳細を保存し、その正確性を確認します。 詳しくは Milvusの接続を参照。
2024年5月24日までの週
新しいチュートリアルとビデオ
2024年5月23日
新しいチュートリアルで、Watson OpenScaleの機能を使用してモデルのデプロイメントを評価する方法をご覧ください。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
スペースでの展開を評価する | モデルをデプロイし、デプロイされたモデルのモニターを設定し、デプロイメントスペースでモデルを評価する。 | Configure the monitors and evaluate a model in a deployment space. |
allam-1-13b-instructの foundation modelはフランクフルト地域で利用可能です
2024年5月21日
サウジアラビアのデータ・人工知能庁が提供し、IBMが提供するアラビア語のfoundation model allam-1-13b-instructは、フランクフルトのデータセンターにあるwatsonx.aiから入手できる。 allam-1-13b-instruct foundation modelは、アラビア語のQ&A、要約、分類、生成、抽出、翻訳などの汎用タスクに使用できます。 詳しくは、サポートされているファンデーションモデルをご覧ください。
watsonx.ai Pythonクライアント・ライブラリを使って、従来のAIアセットとジェネレーティブAIアセットをデプロイする
2024年5月21日
Watson Machine Learning Pythonクライアント・ライブラリは現在、拡張ライブラリであるwatsonx.ai Pythonクライアント・ライブラリの一部となっている。 watsonx.ai Pythonライブラリを使って、従来の機械学習や生成 AI 資産を扱うことができます。 Watson Machine Learningライブラリーは存続するが、新機能がアップデートされることはない。 詳細はPythonライブラリを参照。
2024年5月17日までの週
サードパーティのテキスト埋め込みモデルは、watsonx.aiで利用可能です
16 2024年5月
テキスト・マッチングと検索を強化するために、IBMSlateモデルに加えて、以下のサードパーティ製テキスト埋め込みモデルが利用できるようになった:
- all-minilm-l12-v2
- multilingual-e5-large
watsonx.ai Pythonライブラリまたは REST API を使用して、サポートされている埋め込みモデルのいずれかに文章または文章を送信し、入力テキストをベクトルに変換して、類似のテキストをより正確に比較・検索します。
これらのモデルの詳細については、サポートされるエンコーダ基礎モデルを参照してください。
テキスト変換の詳細については、テキスト埋め込み生成を参照してください。
2024年5月10日までの週
ダラス地区で新しいGranite基礎モデルが利用可能
9 2024年5月
watsonx.ai:から、IBMが提供する以下のGraniteCode Foundationモデルを推論できるようになりました:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
プログラム・コーディング・タスクには、新しいGraniteを使用する。 基礎モデルは、論理的推論や問題解決を含む指示追従能力を高めるために、指示データの組み合わせで微調整される。
詳しくは、サポートされているファンデーションモデルをご覧ください。
InstructLabの基礎モデルは、watsonx.aiで利用可能です
7 2024年5月
InstructLabは、Red Hatと IBMによるオープンソースのイニシアチブで、foundation modelモデルの能力を増強するためのプラットフォームを提供する。 以下の基礎モデルは、InstructLab:から提供される知識とスキルをサポートします:
- granite-7b-lab
- granite-13-chat-v2
- granite-20b-multilingual
- merlinite-7b
foundation modelのタクソノミーのページから、オープンソースコミュニティへの貢献を調べることができる。
詳しくはInstructLab-compatible基盤モデルをご覧ください。
2024年5月3日までの週
プロジェクト資産をフォルダに整理する
2 2024年5月
プロジェクト内にフォルダを作成して、アセットを整理できるようになりました。 プロジェクトの管理者はフォルダを有効にする必要があり、管理者と編集者はフォルダを作成・管理することができます。 フォルダはベータ版であり、本番環境での使用はまだサポートされていません。 詳しくは、フォルダによるアセットの整理(ベータ版)をご覧ください。
2024年4月26日までの週
IBM watsonx.aiはロンドン地域でご利用いただけます
2023年4月25日
Watsonx.aiは現在、ロンドンのデータセンターで一般的に利用可能で、サインアップの際に希望地域としてロンドンを選択することができる。
- ダラスで完全にサポートされている基礎モデルは、ロンドンのデータセンターでも、Prompt Labから、あるいはAPIを使って推論することができる。 例外はmt0-xxl-13bと llama-2-70b-chat foundation modelで、現在販売されているllama-3-70b-instruct foundation modelモデルに取って代わられている。
- Tuning Studioから、またはAPIを使用して、3つのチューニング可能な基礎モデルをプロンプトチューニングします。
- 2つのIBMエンベッディングモデルとエンベッディングAPIがサポートされています。
詳しくは、サービスおよび機能の地域別利用可能性をご覧ください。
ホームページから直接Prompt Labでチャットを開始する
2023年4月25日
IBM watsonx.aiのホームページから、foundation modelモデルと会話を始めることができる。 チャットモードでfoundation modelモデルに送信する質問を入力するか、「OpenPrompt Lab」をクリックして、モデル入力を送信する前にfoundation modelモデルとモデルパラメータを選択します。
2024年4月19日までの週
Meta Llama3ファンデーション・モデルが新登場
18 2024年4月
Meta が提供する以下のLlama 3基盤モデルは、watsonx.ai:から推論が可能です:
- llama-3-8b-instruct
- llama-3-70b-instruct
新しいLlama 3の基礎モデルは、様々なユースケースをサポートできるように細かく調整された言語モデルです。
この最新リリースのラマは、より多くのトークンを使ってトレーニングされ、新しいトレーニング後の手順が適用されている。 その結果、より優れた言語理解、推論、コード生成、命令追従能力を備えた基礎モデルが生まれた。
詳しくは、サポートされているファンデーションモデルをご覧ください。
テキストマッチングと検索を強化するIBMエンベッディングサポートの導入
18 2024年4月
IBMembeddeddings API とIBMembedding models を使用して、入力テキストをベクトルに変換し、類似のテキストをより正確に比較・検索できるようになりました。
以下のIBMSlate埋め込みモデルが利用可能です:
- slate.125m.english.rtrvr
- slate.30m.english.rtrvr
詳しくは、テキスト埋め込み生成をご覧ください。
料金の詳細については、watsonx.aiランタイムプランをご覧ください。
IBM watsonx.governance is included when you sign up for IBM watsonx.ai
18 2024年4月
ダラス地域でwatsonx.aiにサインアップすると、watsonx.governanceが自動的に含まれるようになりました。 IBM watsonx as a Serviceのサインアップを参照してください。
スペースにおける機械学習の導入を評価する
18 2024年4月
watsonx.governance評価をデプロイメントスペースに設定することで、機械学習モデルのパフォーマンスに関する洞察を得ることができます。 例えば、配備の偏りを評価したり、配備のドリフトを監視したりする。 評価を設定すると、評価結果やトランザクションレコードのモデルをスペース内で直接分析できます。
詳しくは、スペースでの配備を評価するを参照。
東京地区には韓国語のfoundation modelがある
18 2024年4月
マインズ・アンド・カンパニーが提供するllama2-13b-dpo-v7 foundation modelは、メタ社のLlama 2 foundation modelをベースにしており、東京地区で入手可能である。
llama2-13b-dpo-v7の foundation modelは、韓国語と英語の会話タスクに特化している。 また、llama2-13b-dpo-v7 foundation modelを韓国語の一般的なタスクに使用することもできます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
mixtral-8x7b-instruct-v01 foundation modelが推論に利用できます
18 2024年4月
Mistral AI のmixtral-8x7b-instruct-v01 foundation modelは、watsonx.ai から推論が可能です。 mixtral-8x7b-instruct-v01 foundation modelは、より効率的にテキストを生成するために疎な専門家混合ネットワークを使用する事前学習済み生成モデルです。
mixtral-8x7b-instruct-v01モデルは、分類、要約、コード生成、言語翻訳などの汎用タスクに使用できます。 詳しくは、サポートされているファンデーションモデルをご覧ください。
mixtral-8x7b-instruct-v01-q foundation modelは非推奨であり、2024年6月20日に廃止されます。 このfoundation modelを使用しているすべてのプロンプトを修正する。
- 廃止日:2024年4月19日
- 脱退日:2024年6月20日
- 代替モデル:mixtral-8x7b-instruct-v01
APIを使用してmixtral-8x7b-instruct-v01-qモデルに提出された推論リクエストは、出力を生成し続けますが、近日中のモデルの取り下げに関する警告メッセージが含まれます。 2024年6月20日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
granite-20b-multilingual foundation modelモデルに修正を加える
18 2024年4月
granite-20b-multilingualの最新バージョンは1.1.0です。 この修正には、バージョン1.0のモデルに新しいAIアライメント技術を適用することで得られた改良が含まれている。 AIの調整には、微調整と強化学習のテクニックを使って、できるだけ有益で、真実で、透明性のある出力を返すようにモデルを導くことが含まれる。
このfoundation modelの詳細については、サポートされている基礎モデルを参照のこと。
2024年4月12日までの週
granite-13b-instruct-v2 foundation modelの迅速な調整
11 2024年4月
Tuning Studioは、flan-t5-xl-3bと llama-2-13b-chat基礎モデルに加えて、granite-13b-instruct-v2 foundation modelのチューニングをサポートするようになりました。 詳しくは、 foundation modelのチューニングをご覧ください。
granite-13b-instruct-v2の foundation modelをチューニングするための実験構成設定は、タスクに応じて最適なデフォルト値を適用するように変更されます。 チューニング評価ガイドラインは、実験結果を分析し、その結果に基づいて実験構成設定を調整するのに役立ちます。 詳しくは、チューニング実験の結果を評価するをご覧ください。
フランクフルト地域にはアラビア語のfoundation modelがある
11 2024年4月
Inception、Mohamed bin Zayed University of Artificial Intelligence、Cerebras Systemsが提供するjais-13b-chat foundation modelは、フランクフルト地域で利用できる。
jais-13b-chatの foundation modelは、アラビア語と英語の会話タスクに特化している。 また、jais-13b-chat foundation modelは、アラビア語と英語間の言語翻訳を含むアラビア語の一般的な目的のタスクに使用することができます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
Prompt Labでプロンプトの全文を見る
11 2024年4月
foundation modelにプロンプト変数が含まれている場合や、構造化モードまたはチャットモードで作業している場合に便利です。
詳細はPrompt Labを参照。
非推奨のGraniteバージョン1モデルは廃止された
11 2024年4月
以下のファンデーションモデルは現在販売中止となっている:
- granite-13b-chat-v1
- granite-13b-instruct-v1
これらの基盤モデルを使用しているプロンプトは、IBM Granite v2基盤モデルを使用するように修正してください。 foundation modelの非推奨と廃止の詳細については、Foundationモデルのライフサイクルを参照してください。
2024年4月5日までの週
ピボットテーブルを使用して、Decision Optimization実験で集計されたデータを表示する
5 2024年4月
ピボットテーブルを使用して,Decision Optimization実験のVisualizationビューに集約された入力データと出力データの両方を表示できるようになった. 詳細については、 Decision Optimizationexperimentsの可視化ウィジェットを参照。
2024年3月15日までの週
watsonx.aiAPI が利用可能です
14 2024年3月
watsonx.aiのAPIは一般に公開されている。 watsonx.aiAPI を使用して、プログラムでファンデーションモデルを操作します。 詳細はAPIリファレンスを参照。
APIのバージョンは2024-03-14
です。
ノートブックから基礎モデルを操作するために利用可能なPythonライブラリを引き続き使用することができます。 詳細はPythonライブラリを参照。
ダラス、フランクフルト、東京で新しいファンデーション・モデルを発表
14 2024年3月
現在、watsonx.ai:から推論に利用できる基礎モデルは以下の通りです:
granite-20b-multilingual: IBM Graniteファミリーのfoundation modelで、英語、ドイツ語、スペイン語、フランス語、ポルトガル語の様々な生成タスクに使用できます。
codellama-34b-instruct-hf:MetaのLlama 2をベースにしたCode Llamaのプログラムコード生成モデル。 codellama-34b-instruct-hfを使用すると、自然言語入力に基づいてコードを生成するプロンプトを作成したり、コードを完成させてデバッグしたりすることができます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年3月8日までの週
Tuning Studioはフランクフルトにあります
2024年3月7日
Tuning Studioは、フランクフルト地域の有料プランのユーザーが利用できるようになった。 Tuning Studioは、foundation modelが有用な出力を返すように導くのに役立ちます。 フランクフルトのTuning Studioを使用すれば、flan-t5-xl-3bと llama-2-70b-chatの両基礎モデルをチューニングできます。
詳しくはTuning Studioをご覧ください。
首都圏におけるllama-2-13b-chat foundation modelの迅速な調整
2024年3月7日
Tuning Studioが東京リージョンでllama-2-13b-chatの foundation modelのチューニングをサポートしました。 まず、Prompt Labで大きなllama-2-70b-chatモデルのプロンプトを作成し、ユースケースに効果的なプロンプト入力を探します。 その後、Llama 2モデルの小型版をチューニングして、ゼロショットプロンプトで同等、いやそれ以上の出力を生成する。
詳しくはTuning Studioをご覧ください。
Mixtral8x7bモデルの低価格化
5 2024年3月
foundation model mixtral-8x7b-instruct-v01-qは、クラス2:$0.0018/Resourceユニットからクラス1:$0.0006/Resourceユニットに再分類され、このモデルに対して推論タスクを実行することがよりコスト効率的になりました。 この再分類はmixtral-8x7b-instruct-v01-qが利用可能なすべての地域に適用される。
詳しくは、サポートされているファンデーションモデルをご覧ください。
料金の詳細については、watsonx.aiランタイムプランをご覧ください。
AIリスクアトラスの更新と強化
5 2024年3月
AIリスクアトラスでは、以下の新コンテンツや強化されたコンテンツをご覧いただけます:
- ガバナンス、法令遵守、社会的影響リスクにまたがる非技術的リスクの新しいカテゴリー
- リスクに関する新しい例
- リスクの定義の明確化
AIリスクアトラスを参照。
watsonxの新しい使用例
5 2024年3月
watsonxのユースケースは、お客様が弊社の製品、サービス、ツールをどのように使用できるかを確認するのに役立ちます:
- watsonx.aiのユースケース:このユースケースは、機械学習とジェネレーティブ AI をオペレーションのフレームワークに統合することで、AI 駆動のソリューションでビジネスプロセスをどのように変革できるかについて説明します。
- watsonx.governanceのユースケース:このユースケースは、AIモデルを追跡、監視、再トレーニングするための統合システムによって、責任ある透明性の高い説明可能なAIワークフローを実現する方法を説明します。
watsonxの使用例をご覧ください。
2024年3月1日までの週
チャットモードはPrompt Labで利用可能
2024年2月29日
Prompt Labのチャット・モードは、基礎モデルの実験を容易にするシンプルなチャット・インターフェースです。 チャットモードは、すでに利用可能な構造化モードと自由形式モードを補強するもので、抽出、要約、分類などのタスクのために数ショットまたは多ショットのプロンプトを作成するときに便利です。 チャットモードを使用して、チャットボットやバーチャルアシスタントのユースケースのための質問応答や会話のやりとりをシミュレートします。
詳細はPrompt Labを参照。
東京地区には日本語版Graniteが用意されている
2024年2月29日
IBMが提供するgranite-8b-japanese foundation modelは、東京リージョンではwatsonx.aiから入手できる。 granite-8b-japanese foundation modelは、IBM GraniteInstructモデルをベースにしており、日本語テキストを理解し、生成するように訓練されている。
granite-8b-japanese foundation modelは、分類、抽出、質問応答、日英間の言語翻訳など、日本語の汎用タスクに使用できます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年2月23日までの週
Granite-13bモデルの低価格化
2024年2月21日
Granite-13bモデルは、クラス2:$0.0018/Resourceユニットからクラス1:$0.0006/Resourceユニットに再分類され、これらのモデルに対して推論タスクを実行する際の費用対効果が高くなった。 この再分類は、以下のモデルが販売されているすべての地域で適用される:
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
これらのモデルの詳細については、対応するファンデーションモデルを参照のこと。
料金の詳細については、watsonx.aiランタイムプランをご覧ください。
2024年2月16日までの週
一般的な作業を開始するための新しいショートカット
2024年2月15日
概要タブの作業開始セクションのタイルをクリックすることで、プロジェクトの共通タスクを開始できるようになりました。 これらのショートカットを使って、共同作業者とデータの追加を開始し、モデルを実験・構築する。 View allをクリックすると、ツールの選択にジャンプします。
汎用タスク用foundation model mixtral-8x7b-instruct-v01-q
2024年2月15日
Mistral AIが提供し、IBMが量子化したmixtral-8x7b-instruct-v01-q foundation modelモデルは、watsonx.aiから入手できる。 mixtral-8x7b-instruct-v01-q ファ基盤モデルは、Mistral AI の Mixtral 8x7B インストラクション・ファ基盤モデルの量子化されたバージョンです。
この新しいモデルは、分類、要約、コード生成、言語翻訳などの汎用タスクに使用できる。 詳しくは、サポートされているファンデーションモデルをご覧ください。
以下のモデルは非推奨であり、間もなく廃止される予定である。 これらの基礎モデルを使用しているプロンプトは、mixtral-8x7b-instruct-v01-qのような別のfoundation modelを使用するように修正してください。
非推奨モデル | 非推奨日付 | 退会日 | 代替モデル |
---|---|---|---|
gpt-neox-20b | 2024年2月15日 | 2024年3月21日 | mixtral-8x7b-instruct-v01-q |
mpt-7b-instruct2 | 2024年2月15日 | 2024年3月21日 | mixtral-8x7b-instruct-v01-q |
starcoder-15.5b | 2024年2月15日 | 11 2024年4月 | mixtral-8x7b-instruct-v01-q |
APIを使用してこれらのモデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデルの取り下げに関する警告メッセージが含まれる。 退会日に達すると、モデルを推論するためのAPIリクエストは出力を生成しなくなる。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
granite-13b-chat-v2 foundation modelの修正が可能です
2024年2月15日
granite-13b-chat-v22の最新バージョンは2.1.0です。 この修正には、バージョン2.0.0のモデルに新しいAIアライメント技術を適用することで得られた改良が含まれている。 AIの調整には、微調整と強化学習のテクニックを使って、できるだけ有益で、真実で、透明性のある出力を返すようにモデルを導くことが含まれる。 詳しくは、AIアライメントとは? IBMResearchのブログ記事。
新しいwatsonxのチュートリアルとビデオ
2024年2月15日
新しいwatsonx.governanceチュートリアルをお試しください。Watson OpenScale を使用して、公正さ、正確さ、ドリフト、説明可能性について機械学習モデルを評価する方法を学ぶことができます。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
機械学習モデルを評価する | モデルをデプロイし、デプロイされたモデルにモニターを設定し、モデルを評価する。 | Run a notebook to configure the models and use Watson OpenScale to evaluate. |
2024年2月9日までの週
タスク指向のDecision Optimizationドキュメント
9 2024年2月
Decision Optimization実験の作成と設定に必要な情報を、より簡単に見つけることができるようになりました。 Decision Optimization実験とそのサブセクションを参照。
IBM Cloud Data Engineの接続は非推奨です
2022年2月8日
IBM Cloud Data Engine接続は非推奨であり、将来のリリースで廃止される予定です。 重要な日付と詳細については、データエンジンの廃止をご覧ください。
Data Refineryフロー・ジョブを実行するための新しいSpark3.4環境
9 2024年2月
Data Refineryフロージョブの環境を選択する際に、Sparkの機能強化を含むDefault Spark3.4& R4.22を選択できるようになりました。
デフォルトのSpark3.3& R4.2環境は非推奨であり、将来のアップデートで削除される予定です。
Data Refineryのフロー・ジョブを更新して、新しいDefault Spark3.4& R4.2環境を使用するようにします。 詳細は、プロジェクトData Refineryのオプションを参照してください。
2024年2月2日までの週
サンプルコレクションはリソースハブに名称変更
2024年2月2日
Samplesコレクションは、より内容を反映するためにResource hubに改名されました。 リソースハブには、基礎モデル、サンプルプロジェクト、データセット、ノートブックがあります。 リソースハブを参照。
IBM Cloud Databases for DataStaxの接続は終了しました
2024年2月2日
IBM Cloud Databases for DataStax接続はIBM watsonx.aiから削除されました。
Dremio接続にはアップデートが必要
2024年2月2日
以前のDremio接続はJDBCドライバを使っていた。 現在、接続にはArrow Flightベースのドライバーを使用している。
重要:接続プロパティを更新する。 DremioSoftware(オンプレミス)インスタンスまたはDremioCloud インスタンスの接続には、異なる変更が適用されます。
Dremioソフトウェア:ポート番号を更新してください。
Flightが使用する新しいデフォルトのポート番号は32010
です。 ポート番号はdremio.confファイルで確認できる。 詳しくは dremio.confによる設定を参照してください。
さらに、Dremioは IBM Cloud Satelliteとの接続をサポートしなくなった。
DremioCloudです:認証方法とホスト名を更新します。
- Dremioにログインし、個人アクセストークンを生成する。 手順については、パーソナル・アクセストークンを参照してください。
- IBM watsonxの[接続の作成]にある:Dremioフォームで、認証タイプをPersonal Access Tokenに変更し、トークン情報を追加します。 (ユーザー名とパスワードによる認証は、Dremioクラウドインスタンスへの接続に使用できなくなりました)
- ポートがSSL対応であることを選択します。
DremioCloud インスタンスにデフォルトのホスト名を使用している場合は、変更する必要があります:
sql.dremio.cloud
data.dremio.cloud
に変更sql.eu.dremio.cloud
data.eu.dremio.cloud
に変更
llama-2-13b-chat foundation modelのプロンプトチューン
2024年2月1日
Tuning Studioが llama-2-13b-chat foundation modelのチューニングに対応しました。 まず、Prompt Labで大きなllama-2-70b-chatモデルのプロンプトを作成し、ユースケースに効果的なプロンプト入力を探します。 その後、Llama 2モデルの小型版をチューニングして、ゼロショットプロンプトで同等、いやそれ以上の出力を生成する。 llama-2-13b-modelは、ダラス地域で迅速なチューニングが可能です。 詳しくはTuning Studioをご覧ください。
2024年1月26日までの週
AutoAIはすべての実験で順序データをサポートする
2024年1月25日
時系列実験だけでなく、すべてのAutoAI実験で順序付きデータを指定できるようになりました。 行索引に従って、トレーニング・データを順次に配列するかどうかを指定します。 入力データがシーケンシャルである場合、モデルの性能はランダムサンプリングではなく最新のレコードで評価され、ホールドアウトデータはn個のランダムレコードではなくセットの最後のn個のレコードを使用する。 時系列実験では連続データが必要だが、分類実験や回帰実験では任意である。
RAGアクセラレーターとのQ&A
2024年1月26日
サンプルプロジェクトをインポートすることで、検索拡張生成を使用した質疑応答ソリューションを実装できるようになりました。 サンプル・プロジェクトには、ドキュメントをHTMLやPDFからプレーン・テキストに変換し、ドキュメント・セグメントをElasticsearchのベクトル・インデックスにインポートし、ベクトル・インデックスにクエリするPython関数をデプロイし、トップNの結果を取得し、LLM推論を実行して質問に対する答えを生成し、答えが幻覚でないかチェックするノートブックやその他のアセットが含まれている。
ダークテーマに設定
2024年1月25日
watsonxのユーザーインターフェイスをダークテーマに設定できるようになりました。 アバターをクリックし、プロフィールと設定を選択してアカウントプロフィールを開きます。 次に、ダークテーマのスイッチをオンに設定する。 ダークテーマはRStudioとJupyterノートブックではサポートされていません。 プロフィールの管理については、設定の管理をご覧ください。
IBM watsonx.aiは東京リージョンで利用可能です
2024年1月25日
Watsonx.aiは現在、東京のデータセンターで一般的に利用可能であり、契約時に希望する地域として選択することができる。 Prompt Labと foundation modelの推論は、東京地区ではこれらのモデルでサポートされている:
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- granite-13b-chat-v2
- granite-13b-instruct-v2
- llama-2-70b-chat
- llama-2-13b-chat
東京地区からも購入可能:
- Tuning Studioを使用したflan-t5-xl-3b foundation modelの迅速なチューニング
- Synthetic Data Generatorで表形式のデータを生成し、モデルのトレーニングに使用する
サポートされているモデルの詳細については、 watsonx.aiで利用可能なサポートされている基礎モデルをご覧ください。
東京地区には日本語モデルのLlama 2がある
2024年1月25日
株式会社ELYZAが提供するelyza-japanese-llama-elyza-japanese-llama-2-7b-instruct-7b-instructfoundation modelは、東京データセンターのwatsonx.aiインスタンスから利用可能です。 elyza-japanese-llama-2-elyza-japanese-llama-2-7b-instructb-instructモデルは、MetaのLlama 2モデルのバージョンで、日本語テキストを理解し、生成するように訓練されている。
この新しいモデルは、一般的な作業に使用できる。 日本語の分類や抽出、日英間の翻訳に威力を発揮する。
2024年1月12日までの週
watsonx.aiRuntime(Watson Machine Learning)でIBMRuntime22.2のサポートが非推奨となりました
2024年1月11日
IBMRuntime22.22は非推奨であり、2024年4月11日に削除される予定です。 2024年3月7日以降、22.2ランタイムを使用してノートブックやカスタム環境を作成することはできません。 また、22.2ランタイムに基づくソフトウェア仕様で新しいモデルをトレーニングすることはできません。 2024年3月7日以前にIBMRuntime23.11を使用するように、資産とデプロイメントを更新してください。
- 資産をサポートされているフレームワークやソフトウェア仕様に移行する方法については、「古いソフトウェア仕様やフレームワークの管理」を参照してください。
- ノートブック環境の詳細については、プロジェクトのノートブック・エディタのリソース・オプションを計算してください。
- 環境の変更について詳しくは、ノートブックの環境を変更するをご覧ください。
IBM Granite v1ファンデーション・モデルは廃止されました
2024年1月11日
IBM Granite130億パラメータv1基礎モデルは、非推奨であり、2024年4月11日に廃止される。 バージョン1のモデルを使用している場合は、バージョン2のモデルに切り替えてください。
非推奨モデル | 非推奨日付 | 退会日 | 代替モデル |
---|---|---|---|
granite-13b-chat-v1 | 2024年1月11日 | 11 2024年4月 | granite-13b-chat-v2 |
granite-13b-instruct-v1 | 2024年1月11日 | 11 2024年4月 | granite-13b-instruct-v2 |
APIを使用してバージョン1モデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデル廃止に関する警告メッセージが含まれる。 2024年4月11日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
IBM Graniteファンデーション・モデルの詳細については、 IBMが構築したファンデーション・モデルを参照してください。 非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
2023年12月15日までの週
ジョブやその他の操作のためのユーザーAPIキーの作成
2023年12月15日
ジョブやモデル・トレーニングなど、IBM watsonx の特定の実行時操作には、安全な認可のためのクレデンシャルとして API キーが必要です。 ユーザー API キーを使用すると、必要に応じてIBM watsonxで直接 API キーを生成してローテーションできるようになり、業務が円滑に進むようになります。 APIキーはIBM Cloudで管理されるが、IBM watsonxで作成したりローテーションしたりするのが便利だ。
ユーザーAPIキーはアカウント固有のもので、アカウントプロフィールのプロフィールと設定から作成されます。
詳細については、ユーザーAPIキーの管理を参照してください。
新しいチュートリアルとビデオ
2023年12月15日
新しいwatsonx.governanceとwatsonx.aiチュートリアルをお試しください。foundation modelのチューニングや、プロンプトテンプレートの評価とトラッキングの方法を学ぶことができます。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
ファ基盤モデルの調整 | foundation modelをチューニングして、モデルのパフォーマンスを向上させる。 | Use the Tuning Studio to tune a model without coding. |
プロンプト・テンプレートの評価と追跡 | プロンプトテンプレートを評価し、foundation modelのパフォーマンスを測定し、プロンプトテンプレートのライフサイクルを追跡する。 | Use the evaluation tool and an AI use case to track the prompt template. |
その他の watsonx.governance と watsonx.ai のビデオはビデオライブラリーでご覧ください。
新規ログインセッションの有効期限切れと非アクティブによるサインアウト
2023年12月15日
セッションの有効期限が切れたため、IBM Cloudからサインアウトされました。 あなたのセッションは、ログインセッションの有効期限(デフォルトでは24時間)または非アクティブ(デフォルトでは2時間)により失効する可能性があります。 IBM Cloud の Access (IAM) 設定で、デフォルトの期間を変更できます。 詳細については、ログインセッションの有効期限を設定するを参照してください。
IBM Cloud Databases for DataStaxコネクタは廃止予定です
2023年12月15日
IBM Cloud Databases for DataStaxコネクターは非推奨であり、将来のリリースで廃止される予定です。
2023年12月08日までの週
Tuning Studio
7 2023年12月
Tuning Studioは、foundation modelが有用な出力を返すように導くのに役立ちます。 Tuning Studioを使用すると、分類、要約、生成などの自然言語処理タスクのパフォーマンスを向上させるために、flan-t5-xl-3b foundation modelを迅速にチューニングすることができます。 迅速なチューニングは、より小さく、より計算効率の高い基礎モデルが、同じモデルファミリーのより大きなモデルに匹敵する結果を達成するのに役立ちます。 より小さなモデルをチューニングして展開することで、長期的な推論コストを削減することができる。 Tuning Studioは、ダラス地域の有料プランのユーザーが利用できる。
- 詳しくはTuning Studioをご覧ください。
- 手始めに、'クイックスタートfoundation modelをチューニングする を参照されたい。
- サンプル・ノートブックを実行するには、 watsonxの CFPB ドキュメントを分類するモデルのチューニングにアクセスしてください。
ワークロード管理のためのDb2接続の新しいクライアント・プロパティ
8 2023年12月
監視のために、以下のフィールドでプロパティを指定できるようになりました:アプリケーション名、クライアントアカウント情報、クライアントホスト名、クライアントユーザ。 これらのフィールドはオプションであり、以下の接続で使用できる:
2023年12月1日までの週
Watsonx.governanceが利用できる!
2023年12月1日
Watsonx.governanceは、Watson OpenScaleのガバナンス機能を拡張し、foundation model資産と機械学習資産を評価する。 例えば、精度のような次元でfoundation modelのプロンプトテンプレートを評価したり、憎悪や罵詈雑言の存在を検出したりする。 また、ビジネス上の問題に対処するためにAIのユースケースを定義し、プロンプトテンプレートを追跡したり、ファクトシートでデータをモデル化して、コンプライアンスやガバナンスの目標をサポートすることもできる。 Watsonx.governanceのプランと機能は、ダラス地域でのみご利用いただけます。
- プランの詳細は、watsonx.governanceplansをご覧ください。
- ガバナンス機能の詳細については、watsonx.governanceoverviewを参照のこと。
AIリスクアトラスで探る
2023年12月1日
これで、ジェネレーティブAI、基礎モデル、機械学習モデルを扱うリスクのいくつかを探ることができる。 プライバシー、公平性、説明可能性、価値観の一致、その他の分野におけるリスクについてお読みください。 AIリスクアトラスを参照。
IBM Graniteモデルの新バージョンが登場
2023.11.30
Graniteの最新バージョンには、これらの変更が含まれている:
granite-13b-chat-v2:質問応答、要約、生成タスクをより良くするように調整。 十分なコンテクストがあれば、前バージョンよりも以下の点が改善された回答が生成される:
- プロフェッショナルな口調で、より長く、より質の高い応答を生成する
- 思考の連鎖をサポート
- 人物の言及を認識し、トーンや感情をよりよく検出できる
- 入力中の空白をより優雅に扱う
広範な変更があるため、最新バージョンに切り替える前に、v1用に設計されたプロンプトをテストし、修正してください。
granite-13b-instruct-v2:分類、抽出、要約タスク用に特別にチューニングされている。 最新バージョンは以下の点で旧バージョンと異なる:
- 様々な長さの、多様な語彙を用いた、より首尾一貫した解答を返す
- 人物の言及を認識し、長い入力を要約できる
- 入力中の空白をより優雅に扱う
v11でうまく機能したエンジニアのプロンプトは、v2でもうまく機能する可能性が高いですが、機種変更する前に必ずテストしてください。
Graniteの最新モデルはクラス2に分類される。
一部のファンデーション・モデルはより低価格で入手可能に
2023.11.30
人気のあるファンデーションモデルのいくつかは、より低コストの課金クラスに再分類された。
以下のファンデーションがクラス3からクラス2に変更された:
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b
以下のfoundation modelがクラス2からクラス1に変更された:
- llama-2-13b
課金クラスの詳細については、watsonx.aiランタイムプランを参照。
新しいサンプルノートブックをご用意しました:ディスカバリーとRAG入門
2023.11.30
IBM Watson Discoveryを検索コンポーネントとして使用するIBM watsonx.aiで、検索拡張生成パターンを適用する方法については、「Introduction to RAG with Discovery」ノートブックを使用してください。 詳細については、「ディスカバリーとRAG入門」を参照のこと。
サービスとしてのwatsonxとソフトウェア導入の機能の違いを理解する
2023.11.30
IBM watsonx as a ServiceとwatsonxonCloud Pak for Dataソフトウェア、バージョン4.8 の機能と実装を比較できるようになりました。 watsonxデプロイメント間の機能の違いを参照。
停止シーケンスの処理方法の変更
2023.11.30
改行文字などのストップシーケンスがPrompt Labで指定された場合、モデル出力テキストはストップシーケンスの最初の出現の後で終了します。 出力の最初に発生した場合でも、モデルの出力は停止する。 以前は、停止シーケンスがモデル出力の最初に指定されている場合、無視されていた。
2023年11月10日までの週
小型版のLlama-2Chatモデルもあります
9 2023年11月
Llama-2チャット・モデルの13b版と70b版のどちらを使用するか選択できるようになりました。 選択する際には、これらの要素を考慮してください:
- コスト
- パフォーマンス
13bバージョンはクラス2モデルで、70bバージョンよりも安く使用できる。 ベンチマークや、各モデルサイズの二酸化炭素排出量などのその他の要素を比較するには、モデル・カードをご覧ください。
プロンプト変数を使用して再利用可能なプロンプトを作成する
プロンプト変数を使用してプロンプトに柔軟性を追加します。 プロンプト変数はプロンプト入力の静的テキストのプレースホルダーとして機能し、推論時に動的にテキストに置き換えることができる。 プロンプト変数名とデフォルト値をプロンプトテンプレートアセットに保存して、プロジェクト内で再利用したり、共同作業者と共有したりすることができます。 詳細については、再利用可能なプロンプトのビルドを参照してください。
ランタイム23.1における Python 3.10およびR4.2フレームワークとソフトウェア仕様のサポートを発表
9 2023年11月
Python 3.10とR4.22に基づく最新のデータ・サイエンス・フレームワークを含むIBMRuntime23.11を使用して、JupyterノートブックとRスクリプトを実行し、モデルをトレーニングし、デプロイメントを実行できるになりました。 IBMRuntime23.1フレームワークとソフトウェア仕様を使用するように、アセットとデプロイメントを更新してください。
- IBMRuntime23.1リリースと、Python 3.10およびR4.22に含まれる環境については、ノートブック環境の変更を参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
Apache Spark 3.4てノートブックとスクリプトを実行する
Spark3.4と Python 3.10、R4.2が、プロジェクト内のノートブックとRStudioスクリプトのランタイムとしてサポートされました。 利用可能なノートブック環境の詳細については、Compute resource options for notebook editor in projectsおよびCompute resource options forRStudioin projectsを参照してください。
2023年10月27日までの週
SatelliteConnectorを使用してオンプレミスデータベースに接続する
2023年10月26日
新しいSatelliteConnectorを使用して、インターネット経由でアクセスできない(たとえば、ファイアウォールの背後にある)データベースに接続します。 SatelliteConnectorは、オンプレミス環境からIBM Cloudに戻るセキュアで監査可能な通信を作成する、軽量のDockerの通信を使用します。 手順については、ファイアウォールの背後にあるデータへの接続を参照してください。
Secure Gatewayは非推奨
2023年10月26日
IBM Cloudは Secure Gatewayの廃止を発表した。 詳しくは、概要とタイムラインを参照のこと。
現在、Secure Gatewayで設定された接続を使用している場合は、別の通信方法を使用するよう計画してください。 IBM watsonx では、Secure Gatewayの代わりとしてSatelliteConnector を使用できます。 ファイアウォールの背後にあるデータへの接続を参照してください。
2023年10月20日までの週
トークンの最大サイズが増加
2023/10/16
基礎モデルからの出力に許容されるトークンの最大数に適用されていた制限は、有料プランから削除されました。 プロンプトエンジニアリング中に、Prompt Labと Pythonライブラリの両方から、より大きな最大トークン値を使用することができます。 トークンの正確な許容数はモデルによって異なる。 有料プランおよびライト・プランのトークン制限について詳しくは、 サポートされる基盤モデルを参照してください。
2023年10月13日までの週
サンプルの新しいノート
2023年10月12日
2つの新しいノートブックが利用可能で、検索-拡張生成パターンの検索フェーズでElasticsearchのベクトルデータベースを使用する。 このノートブックは、インデックス化された文書と、ユーザーから送信されたクエリーテキストとの間の意味的類似性に基づいて、マッチを見つける方法を示している。
Decision Optimization化の中間解
2023年10月12日
Decision Optimization実験の実行中に中間解のサンプルを見ることを選択できるようになりました。 これはデバッグや、ソルバーがどのように進行しているかを確認するのに便利である。 解答に時間がかかる大きなモデルの場合、中間解を使えば、解答が完了するのを待つことなく、解答の潜在的な問題を素早く簡単に特定することができます。 実行構成で中間ソリューション配信パラメータを構成し、これらのソリューションの配信頻度を選択できます。 詳細については、中間ソリューションと 実行設定パラメータを参照してください。
新しいDecision Optimization保存モデルダイアログ
Decision Optimizationのユーザー・インターフェイスから展開用にモデルを保存する際、入力スキーマと出力スキーマを確認し、含めるテーブルをより簡単に選択できるようになりました。 また、実行設定パラメーターの追加、変更、削除、環境の確認、使用されているモデルファイルの確認も可能です。 これらの項目はすべて、同じ「Save as model for deployment」ダイアログに表示されます。 詳細については、ユーザーインターフェイスを使用したDecision Optimizationモデルのデプロイを参照してください。
2023年10月6日までの週
フランクフルトの追加基盤モデル
2023年10月5日
ダラス・データ・センターで使用可能なすべての基盤モデルは、フランクフルト・データ・センターでも使用できるようになりました。 watsonx.ai プロンプト・ラボと基盤モデルの推論が、フランクフルト地域で以下のモデルに対してサポートされるようになりました。
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b-chat
- gpt-neox-20b
- mt0-xxl-13b
- starcoder-15.5b
これらのモデルについて詳しくは、 watsonx.aiで使用可能なサポートされる基盤モデルを参照してください。
料金の詳細については、watsonx.aiランタイムプランをご覧ください。
連結操作における新しい列の配置を制御するData Refinery
6 2023年10月
Concatenate操作の結果得られる新しいカラムの位置を指定する2つのオプションがあります:データセットの一番右の列か、元の列の隣です。
以前は、新しい列はデータセットの先頭に置かれていた。
既存のData Refineryフローのいずれかの連結操作を編集して、新しい列の位置を指定します。 さもなければ、フローは失敗するかもしれない。
Data Refineryの操作については、 Data RefineryのGUI操作を参照してください。
2023年9月29日までの週
自然言語生成のための IBM Granite 基盤モデル
2023年9月28日
IBM 基盤モデルの Granite ファミリーの最初の 2 つのモデルは、ダラス地域で使用できるようになりました。
- granite-13b-chat-v1: ダイアログのユースケースに最適化された一般的なユースモデル
- granite-13b-instruct-v1: 質問回答用に最適化された一般用モデル
どちらのモデルも、英語の言語を効率的に予測・生成できる13B-parameterのデコーダーモデルである。 Graniteファミリーの他のモデルと同様、ビジネス向けに設計されている。 Graniteは、公共のインターネットなどの一般的な言語ソースと、学術、科学、法律、金融分野などの業界固有のデータソースの両方から、複数テラバイトのデータに対して事前学習される。
今すぐPrompt Labでお試しください。また、センチメント分析にgranite-13b-instruct-v1モデルを使用したサンプルノートブックを実行してください。
詳しくは、 Building AI for business: IBMの Granite 基盤モデル のブログ投稿を参照してください。
- これらのモデルについて詳しくは、 watsonx.aiで使用可能なサポートされる基盤モデルを参照してください。
- サンプル・プロンプトの説明については、 一般的なタスクのサンプル・基盤モデル・プロンプトを参照してください。
- 料金の詳細については、watsonx.aiランタイムプランをご覧ください。
2023年9月22日までの週
Decision OptimizationJavaモデル
2023年9月20日
Decision OptimizationJavaモデルは、watsonx.aiRuntime(Watson Machine Learning)でデプロイできるようになった。 JavaワーカーAPIを使用することで、OPL、CPLEX、CP OptimizerのJava APIで最適化モデルを作成することができます。 公開されているJava workerGitHub で提供されているボイラープレートを使うことで、ローカルでモデルを簡単に作成し、パッケージ化してwatsonx.aiRuntime にデプロイできるようになりました。 詳細については、 Decision Optimization用のJavaモデルのデプロイを参照してください。
リソースハブの新しいノートブック
2023年9月21日
リソース・ハブでは以下の新しいノートブックを使用できます:
2023年9月15日までの週
プロンプトエンジニアリングと合成データのクイックスタートチュートリアル
2023年9月14日
新しいチュートリアルをお試しください:
- プロンプト・基盤モデル: 通常、正常な結果を得るために基盤モデルにプロンプトを出す方法は複数あります。 プロンプト・ラボでは、さまざまな基盤モデルのプロンプトを試したり、サンプル・プロンプトを探索したり、最適なプロンプトを保存して共有したりすることができます。 生成される出力の精度を向上させる一つの方法は、検索補強型生成パターンを使って、必要な事実をプロンプトテキストの文脈として提供することである。
- 合成データを生成するwatsonx.ai で合成表データを生成することができます。 合成データの利点は、オンデマンドでデータを調達し、ユースケースに合わせてカスタマイズし、大量に生産できることだ。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
プロンプト・ラボを使用した基盤モデルのプロンプト | さまざまな基盤モデルにプロンプトを出し、サンプル・プロンプトを探索し、最適なプロンプトを保存して共有します。 | Prompt Labを使用して、コーディングなしでモデルをプロンプトします。 |
取得拡張された生成パターンを使用して基盤モデルにプロンプトを出す | 知識ベース内の情報を活用して、基盤モデルを促進します。 | Use the retrieval-augmented generation pattern in a Jupyter notebook that uses Python code. |
合成表データの生成 | グラフィカルなフローエディターを使って、合成表データを生成する。 | Select operations to generate data. |
Watsonx.aiコミュニティ
2023年9月14日
watsonx.aiコミュニティに参加することで、AIアーキテクトやビルダーが学び、アイデアを共有し、他の人とつながることができます。
2023年9月8日までの週
Synthetic Data Generatorで合成表データを生成する
2023年9月7日
ダラスとフランクフルトで利用可能になったSynthetic Data Generatorは、watsonx.aiの新しいグラフィカルエディターツールで、モデルのトレーニングに使用する表形式のデータを生成するために使用できます。 ビジュアルフローと統計モデルを使用して、既存のデータまたはカスタムデータスキーマに基づいて合成データを作成できます。 元のデータをマスクし、合成データをデータベースまたはファイルとしてエクスポートすることができます。
まずは、合成データをご覧ください。
Llama-2 自然言語の生成とチャットのための基盤モデル
2023年9月7日
メタ社のLlama-2ファンデーション・モデルがダラス地区で発売された。 Llama-2チャットモデルは、最適化された変換器アーキテクチャを使用する自動回帰型言語モデルです。 このモデルは、一般に公開されているオンラインデータを使って事前に学習され、その後、人間のフィードバックから強化学習を使って微調整される。 このモデルは、英語のアシスタントのようなチャットシナリオでの商用および研究使用を目的としている。
- Llama-2 モデルについて詳しくは、 watsonx.aiで使用可能なサポートされている基盤モデルを参照してください。
- サンプル・プロンプトの説明については、 一般的なタスクのサンプル・基盤モデル・プロンプトを参照してください。
- Llama-22の価格詳細については、watsonx.aiランタイムプランをご覧ください。
基盤モデル Python ライブラリーの LangChain 拡張
2023年9月7日
基盤モデル Python ライブラリー用の新しい LangChain 拡張を使用して、 watsonx.ai 内の基盤モデルで LangChain フレームワークを使用できるようになりました。
このサンプルノートブックは、新しい拡張機能の使い方を示しています:サンプルノートブック
検索支援型生成パターンの導入サンプル
2023年9月7日
取得拡張世代は、知識ベースを活用して基盤モデルから事実上正確な出力を得るための、単純で強力な手法です。
2023年9月1日までの週
ノートブックにおけるコメントの非推奨
2023年8月31日
現在のところ、ノートブックのアクションバーからノートブックにコメントを追加することはできません。 既存のコメントはすべて削除された。
コード生成およびコード変換のための StarCoder 基盤モデル
2023年8月31日
Hugging Faceの StarCoderモデルがダラス地域で発売された。 StarCoderを使用して、コードを生成したり、あるプログラミング言語から別のプログラミング言語へコードを変換したりするためのプロンプトを作成します。 1つのサンプルプロンプトは、StarCoderを使用して命令セットからPythonコードを生成する方法を示しています。 2番目のサンプルプロンプトは、StarCoderてC++で書かれたコードをPythonコードに変換する方法を示している。
- StarCoder モデルについて詳しくは、 watsonx.aiで使用可能なサポートされる基盤モデルを参照してください。
- サンプル・プロンプトの説明については、 共通タスクのサンプル・基盤モデル・プロンプトを参照してください。
IBM watsonx.aiはフランクフルト地域で利用可能です
2023年8月31日
Watsonx.aiは現在、フランクフルトのデータセンターで一般的に利用可能で、契約時に希望する地域として選択することができる。 フランクフルト地域では、以下のモデルに対してプロンプト・ラボと基盤モデルの推論がサポートされています。
mpt-7b-instruct2
flan-t5-xxl-11b
flan-ul2-20b
サポートされているモデルの詳細については、 watsonx.aiで利用可能なサポートされている基礎モデルをご覧ください。
2023年8月25日までの週
Watson Pipelinesで利用可能なキャッシュの追加機能
2023年8月21日
パイプラインフローの設定をカスタマイズするために、さらに多くのオプションが用意されています。 パイプラインの実行にキャッシュを使用するタイミングを、より細かく制御できるようになった。 詳細については、デフォルト設定の管理を参照してください。
2023年8月18日までの週
watsonx.aiRuntime (旧Watson Machine Learning) サービスの名称を更新しました
2023年8月18日
直ちに、IBM watsonx.aiRuntime サービスのプラン名が以下のように更新される:
v2スタンダードプランがエッセンシャルプランになりました。 このプランは、基礎モデルや機械学習資産の使用を開始するために必要なリソースを提供するように設計されています。
v2プロフェッショナルプランがスタンダードプランになりました。 この計画は、資産の創出から生産的利用まで、ほとんどの組織を支援するためのリソースを提供するものである。
プラン名を変更しても、利用規約は変更されません。 つまり、v2スタンダードプランの利用登録をされている場合は、エッセンシャルという名称に変更されますが、プランの詳細はすべて変わりません。 同様に、v2プロフェッショナル・プランの利用登録をされている場合は、プラン名がスタンダードに変更される以外に変更はありません。
各プランに含まれるものの詳細については、watsonx.aiランタイムプランをご覧ください。 価格情報については、IBM Cloudカタログのwatsonx.aiRuntime プラン・ページでプランを検索してください。
2023年8月11日までの週
ノートブックにおけるコメントの非推奨
2023年8月7日
2023年8月31日、ノートブックのアクションバーからノートブックにコメントを追加できなくなります。 そのようにして追加された既存のコメントはすべて削除される。
2023年8月4日までの週
ライト・プランのトークン上限増加
4 2023年8月
基礎モデルのテストにLiteプランを使用している場合、プロンプトの入力と出力のトークン上限が、1アカウントあたり1ヶ月あたり25,000から50,000に増加しました。 これによって、基礎モデルの探求やプロンプトの実験に、より柔軟性を与えることができる。
- watsonx.aiプランについての詳細は、watsonx.aiRuntime plans を参照。
- プロンプトの詳細については、 Prompt Labのプロンプトエンジニアを参照してください。
カスタムテキスト分析テンプレートSPSS Modeler
4 2023年8月
SPSS Modelerでは、カスタムテキスト分析テンプレートをプロジェクトにアップロードできるようになりました。 これにより、あなたの文脈に合った方法で、キーとなるコンセプトをより柔軟に捉え、抽出することができる。
2023年7月28日までの週
財団モデルPythonライブラリ利用可能
2023年7月27日
Pythonライブラリを使用して、watsonx.aiの基礎モデルをプログラムでプロンプト表示できるようになりました。
ご覧ください:財団モデルPythonライブラリ
2023年7月14日までの週
コントロールAIのガードレール
14 2023年7月
Prompt LabでAIガードレールのオン/オフをコントロールできるようになりました。 AIガードレールは、入力フィールドと出力フィールドの両方から潜在的に有害なテキストを除去する。 有害なテキストには、ヘイトスピーチ、罵倒、冒涜が含まれる。 潜在的に有害なテキストの削除を防ぐには、AIガードレールスイッチをオフに設定します。 ヘイトスピーチ、罵倒、冒涜を参照のこと。
Microsoft Azure SQL Database接続は、Azure Active Directory認証AzureAD)をサポートしています
14 2023年7月
Microsoft Azure SQL Databaseの接続にActive Directoryを選択できるようになりました。 Active Directory認証はSQL Server認証の代替である。 この機能強化により、管理者はAzureへのユーザー権限を一元管理できる。 詳細については、Microsoft Azure SQL Database接続を参照してください。
2023年7月7日までの週
IBM watsonx.aiへようこそ!
2023年7月7日
IBM watsonx.aiは、機械学習と基礎モデルを扱うために必要なすべてのツールを提供します。
始めよう:
このドキュメントで生成的AI検索と回答を試す
2023年7月7日
watsonx.aiのドキュメントにある新しいジェネレーティブAIの検索と回答のオプションを試すことで、ジェネレーティブAIが実際に動いているのを見ることができる。 回答は、watsonx.aiで実行されている大規模な言語モデルによって、ドキュメントの内容に基づいて生成される。 この機能は、watsonx.ai にログインした状態でドキュメントを閲覧している場合にのみ利用できます。
ドキュメントの検索フィールドに質問を入力し、「 Try Generative AI search and answer 」アイコン をクリックします。 Generative AIの検索と回答ペインが開き、質問に回答します。