新機能
IBM watsonx.aiとIBM watsonx.governanceonIBM Cloud の新機能とアップデートについては、毎週チェックしてください。
AWS 上のIBM watsonx.governanceについては、 AWS上IBM watsonx.governanceの新機能を/span>のを参照してください。
2024年10月11日までの週
カスタム・ファンデーション・モデルのための新しいソフトウェア仕様
2024年10月7日
カスタム・ファウンデーション・モデルのデプロイメントで、新しいソフトウェア仕様watsonx-cfm-caikit-1.1
を使用できるようになりました。 この仕様はvLLMライブラリに基づいており、最新のデコーダのみの大規模言語モデルに適している。 vLLMライブラリの詳細については、「vLLM」を参照してください。カスタム・ファウンデーション・モデルでの仕様の使用については、「カスタム・ファウンデーション・モデルの展開計画」を参照してください。
granite-7b-labおよびllama3-llava-next-8b-hf基盤モデルは非推奨です
2024年10月7日
granite-7b-lab基礎モデルは非推奨であり、2025年1月7日に廃止されます。 この基礎モデルを使用しているすべてのプロンプトを修正する。
- 償却開始日:2024年10月7日
- 脱退日:2025年1月7日
- 代替モデル:未定
llama3-llava-next-8b-hfマルチモーダル基礎モデルも非推奨であり、2024年11月7日に廃止される。 新しくリリースされたLlama 3.2ビジョンモデルのいずれかを、画像からテキストへの生成タスクに使用できるようになりました。
- 償却開始日:2024年10月7日
- 脱退日:2024年11月7日
- 代替モデル:llama-3-2-11b-vision-instruct
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。 代替モデルの詳細については、サポートされている財団モデルを参照のこと。
2024年10月4日までの週
環境とソフトウェア仕様の更新
3 2024年10月
IBMRuntime23.11に含まれるTensorflowと Kerasのライブラリーが新しいバージョンに更新されました。 これは、ノートブックでのコードの実行方法に影響を与えるかもしれない。 詳しくは、Watson Studioランタイムに含まれるライブラリー・パッケージをご覧ください。
ランタイム23.11は、今年後半にIBMランタイム24.11に取って代わられる予定だ。 度重なる混乱を避けるため、今すぐIBMRuntime24.11に切り替え、デプロイメントには関連するソフトウェア仕様を使用することをお勧めします。
- 環境の変更については、ノートブック環境の変更をご覧ください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
フランクフルト地域におけるwatsonx.governanceプランの提供とOpenScaleレガシープランの廃止
3 2024年10月
フランクフルト地域でWatson OpenScaleをプロビジョニングするためのwatsonx.governanceレガシー・プランは廃止されます。 IBM Watson OpenScaleは、新規サブスクリプションや新規インスタンスのプロビジョニングができなくなります。 OpenScaleの機能については、watsonx.governanceEssentialsプランにご加入ください。
- プランの詳細は、watsonx.governanceplansをご覧ください。
- まずは、 watsonx.governanceのプロビジョニングと立ち上げをご覧ください。
注記:
- 既存のレガシープランのインスタンスは、サポート終了日(未定)まで引き続き運用され、サポートされます。
- IBM Watson OpenScaleの既存のお客様は、引き続きIBM Watson OpenScaleを使用してサポート・チケットを開くことができます。
2024年9月27日までの週
マルチモーダル11Bおよび90Bモデルを含むLlama 3.2ファンデーションモデルが利用可能
2024年9月25日
本日のリリースにより、MetaAIの以下のファウンデーションモデルがダラス地域から利用可能となる:
- Llama 3.2指導モデル
- 大きな入力(128,000トークンのコンテキストウィンドウ長)をサポートし、1Bと 3Bのパラメータサイズでモバイルデバイスに収まるほど軽量で効率的な、汎用性の高い大規模言語モデル。 これらのモデルを使用して、高度にパーソナライズされたオンデバイス・エージェントを構築することができます。
- Llama 3.2ビジョンモデル
- 文書レベルの理解、図表の解釈、画像のキャプション付けなど、画像イン、テキストアウトのユースケースのために構築された、微調整されたモデル。
- ラマガードビジョンモデル
- 有害なコンテンツをフィルタリングするために設計された強力なガードレールモデル。
詳しくは、サポートされているファンデーションモデルをご覧ください。
ガバナンス・コンソールの強化
2024年9月25日
このリリースには機能強化とバグ修正が含まれています。
- ダッシュボードのカスタムタブ
- ダッシュボードにカスタムタブを3つまで表示できるようになりました。
- 積み重ね棒グラフ
- ダッシュボードおよびビュー デザイナーで積み上げ棒グラフを設定できるようになりました。
- アンケート回答者の回答に基づいてフィールド値を設定する式の使用
- フィールドの値に式を入力できるようになった。 For example, you can enter
[$TODAY$]
for the current date,[$END_USER$]
for the name of the signed on user, or[$System Fields:Description$]
to set the field to the value of the Description field of the object. - バグ修正とセキュリティ修正
- バグフィックスとセキュリティフィックスが適用された。
詳しくは 9.0.0.44の新機能をご覧ください。
AutoAISDK(ベータ版)でRAGパターンを自動化する
2024年9月23日
AutoAI PythonSDKを使用して、データとユースケースに基づいて最適化されたRAG(Retrieval-augmented Generation)パターンの設計と展開を自動化し、高速化します。 RAGには、どの大規模言語モデルを選択するか、接地文書をどのようにチャンクするか、どれだけの文書を検索するかなど、多くの設定パラメータが用意されている。 AutoAIは、制約のある設定オプションの完全な探索と評価を自動化し、最適化メトリックに対する性能でランク付けされたパターンパイプラインのセットを生成します。
機能の詳細とAutoAIRAG実験のコーディングに関する使用上の注意については、「 AutoAISDK(ベータ版)によるRAGパターンの自動化」を参照してください。
Spark3.3ランタイムの削除
2024年9月23日
IBM Analytics EngineのSpark3.3ランタイムのサポートは2024年10月29日までに終了し、デフォルトのバージョンはSpark3.4ランタイムに変更されます。 シームレスなエクスペリエンスを保証し、最新の機能と改善を活用するには、Spark3.44に切り替えてください。
2024年10月29日以降、Spark3.3のランタイムを使用してノートブックやカスタム環境を作成、実行することはできません。 また、Spark3.3ランタイムに基づくソフトウェア仕様でデプロイメントを作成または実行することはできません。
- インスタンスをSpark3.44にアップグレードするには、インスタンスのデフォルトランタイムの置き換えを参照してください。
- 利用可能なノートブック環境の詳細については、ノートブックの環境を変更するを参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
2024年9月20日までの週
プロンプト・ラボのマルチモーダル基礎モデルの推論
2024年9月19日
プロンプト・ラボで画像を追加し、チャットモードでマルチモーダル基礎モデルをプロンプトして画像についてチャットできるようになりました。 ドキュメントのグラウンディングに加えて、画像をアップロードし、画像のビジュアルコンテンツについて、画像からテキストへのタスクをサポートするファンデーションモデルに質問できるようになりました。 詳しくは、文書や画像を使ったチャットをご覧ください。
新モデルllama3-llava-next-8b-hfがダラス地区で販売開始
2024年9月19日
IBM watsonx.aiの新しいllama3-llava-next-8b-hfマルチモーダル基礎モデルを使用して、画像からテキストへのタスクを支援できるようになりました。
Large Language and Vision AssistantLLaVa)は、マルチモーダル・チャットボットのユースケースのために、事前学習された大規模言語モデルと事前学習された視覚エンコーダを組み合わせたものです。 LLaVA NeXT Llama3は、より多様で高品質な画像およびテキストデータで学習されます。 詳しくは、対応ファンデーションモデルをご覧ください。
watsonx.ai Node.jsSDKを使ってジェネレーティブAIアプリケーションをコーディングする
2024年9月18日
watsonx.ai Node.jsパッケージを使用して、IBM watsonx as a Serviceの基礎モデルをプログラムで推論し、調整します。 詳細については、Node.jsSDKを参照してください。
財団モデルの知的財産補償方針を理解する
2024年9月18日
IBMの知的財産補償ポリシーをよりよく理解し、watsonx.ai でどの基盤モデルに知的財産補償が適用されているかを確認できるようになりました。 詳しくは、モデルタイプと知財補償を参照のこと。
2024年9月13日までの週
配置スペースでSPSS Modelerフロー用のバッチジョブを作成する
2024年9月10日
展開スペースでSPSS Modelerフローのバッチジョブを作成できるようになりました。 フローでは、フローからバッチジョブを作成するたびに、実行するターミナルノードを柔軟に決定できます。 フローにバッチジョブをスケジュールすると、バッチジョブはフローで指定したデータソースと出力ターゲットを使用します。 これらのデータ ソースとデータ出力のマッピングは、データ ソースとデータ ターゲットが配置スペースにもあれば自動的に行われます。 フローからバッチジョブを作成する方法の詳細については、 SPSS Modelerフローの展開ジョブを作成するを参照してください。
展開スペースのフローとモデルの詳細については、「 SPSS Modelerのフローとモデルを展開する」を参照してください。
2024年9月6日までの週
ダラス地域のwatsonx.aiから推論に独自の基礎モデルを持ち込む
3 2024年9月
IBMが監修した基盤モデルで作業するだけでなく、独自の基盤モデルをアップロードしてデプロイすることもできるようになりました。 モデルが配備され、watsonx.ai に登録されたら、カスタムモデルを推論するプロンプトをプログラムまたはプロンプトラボから作成します。 この機能はダラス地区でのみ利用可能。
カスタム基盤モデルのアップロードの詳細については、カスタム基盤モデルのデプロイを参照してください。 カスタム・ファウンデーション・モデルのプラン情報と請求の詳細については、Watson Machine Learningのプランをご覧ください。
文書テキスト抽出APIで複雑なビジネス文書を簡素化
3 2024年9月
IBMが開発した文書理解テクノロジーを適用して、複雑なビジネス文書を簡素化し、生成的AIワークフローの一部として基礎モデルで処理できるようにします。 文書テキスト抽出APIは、画像、ダイアグラム、表などの文書構造からテキストを抽出する。 watsonx.aiREST APIのテキスト抽出方法はベータ機能です。
詳しくは、文書からテキストを抽出するを参照してください。
Granite基礎モデルの修正とアップデートが可能
3 2024年9月
granite-20b-code-instruct基礎モデルをバージョン1.1.0に修正。 最新の改良版は、コードと自然言語ドメインからの高品質なデータを混合して学習させ、モデルの推論能力と命令追従能力を向上させている。
以下の基礎モデルが更新され、プロンプトでサポートされるコンテキストウィンドウの長さ(入力+出力)のサイズが8192から128000に増加した:
- granite-3b-code-instruct
- granite-8b-code-instruct
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年8月30日までの週
llama-2-13b-chatとllama-2-70b-chatは非推奨です
2024年8月26日
llama-2-13b-chatと llama-2-70b-chatのファンデーションモデルは非推奨であり、2024年9月25日に廃止されます。 これらの基礎モデルを使用しているプロンプトを修正する。
- llama-2-13b-chat
- 廃止日:2024年8月26日
- 脱退日:2024年9月25日
- 代替モデル:llama-3.1-8b-instruct
- llama-2-70b-chat
- 廃止日:2024年8月26日
- 脱退日:2024年9月25日
- 代替モデル:llama-3.1-70b-instruct
APIを使ってllama-2-13b-chatと llama-2-70b-chatモデルに送信された推論リクエストは、出力を生成し続けますが、近々モデルが取り下げられるという警告メッセージが含まれます。 2024年9月25日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundationモデルのライフサイクルを参照してください。
2024年8月23日までの週
プロジェクトやスペースの共同作業者としてユーザーグループを追加する
2024年8月22日
IBM Cloudアカウントに IAM アクセス・グループが含まれている場合、プロジェクトとスペースにユーザー・グループを追加できるようになりました。 IBM Cloudアカウント管理者は、アクセス・グループを作成することができます。 詳細については、「IAMアクセス・グループの操作」を参照してください。
AutoAI時系列実験のための異常予測機能のサポート終了
2024年8月19日
AutoAIの時系列モデル予測における異常値(外れ値)を予測する機能(現在ベータ版)は非推奨となり、2024年9月23日に削除される予定です。 標準的なAutoAIの時系列実験は、現在も完全にサポートされている。 詳細は時系列実験の構築を参照。
2024年8月16日までの週
IBMのスレート埋め込み型新モデルが全地域で利用可能に
2024年8月15日
IBMSlateエンベッディング・モデルは、クエリー、パッセージ、ドキュメントなどのさまざまな入力に対してエンベッディングを生成する機能を企業に提供します。 新モデルのslate-125m-english-rtrvr-v22とslate-30m-english-rtrvr-v22は、v1モデルよりも大幅に改善されている。 現在、slate-125m-english-rtrvrおよびslate-30m-english-rtrvrモデルをご使用の場合は、新しいv2Slateモデルに切り替えて、モデルの改良をご利用ください。
詳しくは、サポートされる埋め込みモデルをご覧ください。
プロンプト・ラボで、ユーザー入力と基礎モデル出力のAIガードレールを別々に設定する
2024年8月15日
プロンプト・ラボでファンデーションモデルのプロンプトを試す際に、有害なコンテンツを発見して削除するAIのガードレールの感度を調整します。 ユーザー入力とモデル出力のテキストに対して異なるフィルター感度レベルを設定でき、効果的なAIガードレール設定をプロンプトテンプレートに保存できる。
詳しくは、有害コンテンツの削除をご覧ください。
2024年8月9日までの週
プロンプト・テンプレート評価のためにプロジェクトからテスト・データを選択する
2024年8月8日
プロジェクトでプロンプトテンプレートを評価する際に、プロジェクトアセットを選択して評価用のテストデータを選択できるようになりました。 詳細については、「プロジェクトでのプロンプトテンプレートの評価」を参照してください。
新しいllama-3-1-70b-instructモデルがIBM watsonx.aiで利用可能になりました
2024年8月7日
IBMの watsonx.aiで、Metaの最新のLlama 3.1基礎モデルを700億パラメータサイズで使用できるようになりました。
Llama 3.1シリーズの基礎モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルです。 このモデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語に対応している。 詳しくは、対応ファンデーションモデルをご覧ください。
RAGアクセラレーターとのQ&Aを更新
6 2024年8月
Q&A with RAG accelerator1.2サンプル・プロジェクトには、以下の改良が含まれています:
検索支援型ジェネレーション(RAG)実装の次の段階である、ユーザーフィードバックの収集と回答品質の分析にお役立てください。 人気のあるトピックを表示する教師なしトピック検出による分析、トピック別に生成された回答に対するユーザーの満足度、トピック別の検索スコアを含む。
IBM granite-7b-labおよびMeta Llama 3.1ファンデーションモデルに最適化された新しいプロンプトテンプレート。
watsonx.ai PythonライブラリのRAGユーティリティと、製品、エリアなどで検索するターゲットベクター検索フィルターを使用する合理化されたコード。
2024年8月2日までの週
新しいllama-3-1-8b-instructモデルがIBM watsonx.aiで利用可能になりました
1 2024年8月
IBMの watsonx.aiで、Metaの最新のLlama 3.1基礎モデルを80億パラメータサイズで使用できるようになりました。
Llama 3.1シリーズの基礎モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルです。 このモデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語に対応している。 詳しくは、対応ファンデーションモデルをご覧ください。
ワークスペースとAIのユースケースを関連付ける
1 2024年8月
AIユースケースの作成フローは、AIのライフサイクルとより密接に連携するように変更されている。 AIのユースケースの要点を定義したら、ワークスペースを関連付け、AIソリューションのフェーズに合わせて資産を整理する。 例えば、開発または検証フェーズのアセットにはプロジェクトまたはスペースを関連付け、運用フェーズのアセットにはスペースを関連付ける。
詳細は、ワークスペースとAIユースケースの関連付けを参照。
2024年7月26日までの週
ランタイム24.1における Python 3.11およびR4.3フレームワークとソフトウェア仕様のサポートを発表
2024年7月25日
Python 3.11とR4.33に基づく最新のデータ・サイエンス・フレームワークを含むIBMRuntime24.11を使用して、Watson StudioJupyterノートブックとRスクリプトを実行し、モデルをトレーニングできるようになりました。 7月29日からは、Watson Machine Learningの導入も可能になる。 IBMRuntime24.1フレームワークとソフトウェア仕様を使用するように、アセットとデプロイメントを更新してください。
- IBMRuntime24.1リリースと、Python 3.10およびR4.2用の付属環境については、ノートブック環境を参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
Jupyter Notebookエディターの拡張版が利用可能に
2024年7月25日
Runtime24.1ベースの環境でノートブックを実行している場合、これらの機能拡張を使ってコードを操作することができます:
- コードを自動的にデバッグ
- ノートブックの目次を自動生成する
- コードの横の行番号を切り替える
- セルの内容を折りたたみ、コードと出力を並べて表示することで、生産性を向上
詳細はJupyterノートブックエディタを参照。
Runtime24.11でサポートされるNatural Language Processorトランスフォーマ埋め込みモデル
2024年7月25日
新しいRuntime24.1環境では、自然言語処理(NLP)変換埋め込みモデルを使用して、文章や一節の意味を捕捉するテキスト埋め込みを作成し、検索を補助する生成タスクに役立てることができるようになりました。 詳細はエンベッディングを参照。
Runtime24.1では、新しい特殊なNLPモデルが利用可能です
2024年7月25日
Runtime24.1環境には、新たに以下の特殊なNLPモデルが追加されました:
- テキストコンテンツに含まれる憎悪的、罵倒的、または冒涜的なコンテンツ(HAP)を検出・識別できるモデル。 詳細はHAP検出を参照。
- 金融、サイバーセキュリティ、生物医学に関連するトピックに対応できる3つの事前学習済みモデル。 詳細については、カスタム分類モデルによるテキストの分類を参照してください。
キーポイント要約を使用して、大量のテキストから詳細な洞察を引き出す
2024年7月25日
Watson StudioノートブックでKey Point Summarizationを使用すると、人々の意見を表す大量のテキスト(製品レビュー、アンケート回答、ソーシャルメディア上のコメントなど)から、詳細で実用的な洞察を抽出できるようになりました。 その結果は、処理しやすい組織的で階層的な方法で提供される。 詳しくは、キーポイント要約をご覧ください
Watson StudioのRStudioアップデート
2024年7月25日
プライベート・クラウドとパブリック・クラウドで一貫したユーザー・エクスペリエンスを提供するため、IBM Cloud Pak for Data as a Serviceの RStudio IDE は、2024年7月29日に RStudio Server2024.04.1および R4.3.1に更新されます。 RStudio の新バージョンでは、多くの機能強化とセキュリティ修正が行われています。 詳細は、RStudio Server2024.04.1リリースノートを参照してください。 大きな互換性の問題は予想されないが、ユーザーは以下の表に記載されているいくつかのパッケージのバージョン変更に注意する必要がある。
アップグレード後にWatson Studio Web UIから RStudio IDE を起動する場合は、RStudio ワークスペースをリセットして、R4.3.1パッケージのライブラリパスが RStudio Server に認識されるようにします。
ダラス、フランクフルト、ロンドンのIBM watsonx.aiでMistral Largeモデルの新バージョンが利用可能になりました
2024年7月24日
現在、ダラス、フランクフルト、ロンドンのデータセンターで、IBM watsonx.ai上のMistral AIからMistral Large 2基礎モデルを使用することができます。
Mistral Large 2モデルは11の言語をサポートし、テキスト理解、コード生成、高度な推論に精通しています。 詳しくは、対応ファンデーションモデルをご覧ください。
新モデルllama-3-405b-instructがダラス地区で販売開始
2024年7月23日
ダラスのデータセンターにあるIBM watsonx.aiで、Metaのllama-3-405b-instruct基礎モデルを使用できるようになりました。
llama-3-405B-instructv3.1)モデルは、トップクラスの推論機能を備えた高性能な大規模言語モデルを企業に提供し、これまでにリリースされたオープンソースモデルとしては最大規模です。 この基礎モデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 詳しくは、対応ファンデーションモデルをご覧ください。
merlinite-7bモデルは非推奨
2024年7月22日
merlinite-7b基礎モデルは非推奨であり、2024年8月22日に廃止される。 この基礎モデルを使用しているすべてのプロンプトを修正する。
- 廃止日:2024年7月22日
- 脱退日:2024年8月22日
- 代替モデル:mixtral-8x7b-instruct-v01
APIを使用してmerlinite-7bモデルに提出された推論リクエストは、出力を生成し続けるが、近日中のモデル廃止についての警告メッセージが含まれる。 2024年8月22日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
2024年7月12日までの週
フランクフルトとダラスで新モデル「ミストラル ラージ」を発表
9 2024年7月
フランクフルトとダラスのデータセンターで、IBM watsonx.ai上のMistral AIからMistral Large基礎モデルを使用できるようになりました。
Mistral Largeは、トップクラスの推論機能を備えた高性能な大規模言語モデルを企業に提供します。 この基礎モデルは、テキスト理解、変換、コード生成などの複雑な多言語推論タスクに使用できる。 詳しくは、対応ファンデーションモデルをご覧ください。
2024年7月5日までの週
データ・ソース・タイプ別に分類されたコネクタ
05 2024年7月
接続の作成時に、コネクタがデータ・ソース・タイプ別にグループ化され、コネクタを見つけやすく、選択しやすくなりました。 たとえば、MongoDBデータ・ソース・タイプには、IBM Cloud Databases for MongoDBと MongoDBコネクターが含まれます。
さらに、新しいRecentsカテゴリーには、接続の作成に使用した最新の6つのコネクターが表示されます。
手順については、プロジェクトにデータ・ソースへの接続を追加するを参照してください。
プロンプト・ラボで基礎モデルのプロンプトに文脈情報を追加する
4 2024年7月
基礎データとしてプロンプトに関連するコンテキスト情報を追加することで、RAG(retrieval-augmented generation)ユースケースにおいて、基礎モデルが事実に基づいた最新の回答を生成できるようにします。 関連文書を素早くアップロードしたり、関連データのあるサードパーティのベクターストアに接続したりできる。 新しい質問が提出されると、その質問は、関連する事実の根拠データを照会するために使用されます。 上位の検索結果と元の質問は、基礎モデルがその出力に関連する事実を組み込むのを助けるために、モデル入力として提出される。
詳細については、基礎モデルのプロンプトを文脈情報に基づかせるを参照してください。
Cloud Object StorageLiteプランの変更
2024 年 7 月 1 日
2024年7月1日から、watsonx.aiと watsonx.governanceの30日間トライアルにサインアップすると自動的にプロビジョニングされるCloud Object StorageLiteプランは、トライアル終了後に失効する。 30日間のトライアル期間中であれば、いつでもCloud Object StorageLiteインスタンスをFree Tierオプション付きのStandardプランにアップグレードできます。
2024年7月1日以前にプロビジョニングしたライトプラン付きの既存のCloud Object Storageサービスインスタンスは、2024年12月15日まで保持されます。 2024年12月15日までにCloud Object StorageサービスをStandardプランにアップグレードする必要があります。
Cloud Object Storageのサービスプランをご覧ください。
2024年6月21日までの週
外部の大規模言語モデル(LLM)用のプロンプトを管理するための分離されたデプロイメントを作成する
21 2024年6月
切り離されたプロンプトテンプレートは、GoogleVertex AI、Azure OpenAI,、AWSBedrockなどのサードパーティプロバイダーによってホストされているLLMのプロンプトテンプレートを評価するための新しいアセットである。 プロンプト・テンプレートの出力を生成する推論はリモート・モデル上で行われるが、watsonx.governanceメトリクスを使用することで、プロンプト・テンプレートの出力を評価することができる。 また、ガバナンス・ソリューションの一環として、AIのユースケースにおいて、切り離されたデプロイメントと切り離されたプロンプト・テンプレートを追跡することもできる。
詳しくは、以下を参照してください。
デプロイジョブのリクエストには、タスク認証情報が必要です
2024年6月19日
デプロイジョブを実行する際のセキュリティを向上させるため、ジョブを要求するユーザは、APIキーの形式でタスク認証情報を提供する必要があります。 この条件は2024年8月15日から施行される。 APIキーの生成の詳細については、タスク認証情報の追加を参照。
EUのAI法適用のためのユースケースの評価
2024年6月19日
新しいEU AI法適用性評価を利用すれば、簡単なアンケートに答えて、自社のAIユースケースを評価し、それがEU AI法の適用範囲内かどうかを判断することができます。 アセスメントは、ユースケースが該当するリスクカテゴリー(禁止、高、限定、最小)を特定するのにも役立つ。 詳細については、ガバナンス・コンソールのソリューション・コンポーネントの適用性評価を参照してください。
2024年6月7日までの週
ガバナンス・コンソールIBM OpenPages)を使用してリスクとコンプライアンス活動を管理する
7 2024年6月
Watsonx.governanceは、ガバナンス・コンソールとオプションで統合できるようになった。 IBM OpenPages,の Model Risk Governance モジュールをインストールしている場合、AI ユースケースを構成して Governance コンソールとガバナンス事実を同期させることができます。 Governance コンソールでは、ガバナンスおよびコンプライアンスプロセスの一環として、ユースケースの作成、ガバナンスアクティビティの表示、タスクの管理、ワークフローの実装を行うことができます。 詳しくは、以下を参照してください。
2024年5月31日までの週
IBM Watson Pipelinesは IBMOrchestration Pipelinesになりました
2024年5月30日
新しいサービス名は、AIのライフサイクルの一部を反復可能なフローに編成する機能を反映している。
プロジェクトをタグ付けして簡単に検索
2024 年 5 月 31 日
プロジェクトにタグを付けて、グループ分けや検索を簡単にできるようになりました。 新しいプロジェクトを作成するとき、またはすべてのプロジェクトのリストからタグを割り当てます。 タグでプロジェクトのリストをフィルタリングして、関連するプロジェクトのセットを取得します。 詳しくは、プロジェクトの作成をご覧ください。
新しいデータソースに接続するミルバス
2024 年 5 月 31 日
Milvus接続を使用して、Milvusベクターストアにアクセスするための認証情報と接続の詳細を保存し、その正確性を確認します。 詳しくは、ミルバス接続を参照のこと。
2024年5月24日までの週
新しいチュートリアルとビデオ
2024年5月23日
新しいチュートリアルで、Watson OpenScaleの機能を使用してモデルのデプロイメントを評価する方法をご覧ください。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
スペースでの展開を評価する | モデルをデプロイし、デプロイされたモデルのモニターを設定し、デプロイメントスペースでモデルを評価する。 | Configure the monitors and evaluate a model in a deployment space. |
allam-1-13b-instructの基礎モデルはフランクフルト地域で利用可能です
2024年5月21日
サウジアラビアのデータ・人工知能庁が提供し、IBMが提供するアラビア語の基礎モデルallam-1-13b-instructは、フランクフルトのデータセンターにあるwatsonx.aiから入手できる。 allam-1-13b-instruct基礎モデルは、アラビア語のQ&A、要約、分類、生成、抽出、翻訳などの汎用タスクに使用できます。 詳しくは、サポートされているファンデーションモデルをご覧ください。
watsonx.ai Pythonクライアント・ライブラリを使って、従来のAIアセットとジェネレーティブAIアセットをデプロイする
2024年5月21日
Watson Machine Learning Pythonクライアント・ライブラリは現在、拡張ライブラリであるwatsonx.ai Pythonクライアント・ライブラリの一部となっている。 watsonx.ai Pythonライブラリを使って、従来の機械学習や生成 AI 資産を扱うことができます。 Watson Machine Learningライブラリーは存続するが、新機能がアップデートされることはない。 詳細はPythonライブラリを参照。
2024年5月17日までの週
サードパーティのテキスト埋め込みモデルは、watsonx.aiで利用可能です
16 2024年5月
テキスト・マッチングと検索を強化するために、IBMSlateモデルに加えて、以下のサードパーティ製テキスト埋め込みモデルが利用できるようになった:
- all-minilm-l12-v2
- multilingual-e5-large
watsonx.ai Pythonライブラリまたは REST API を使用して、サポートされている埋め込みモデルのいずれかに文章または文章を送信し、入力テキストをベクトルに変換して、類似のテキストをより正確に比較・検索します。
これらのモデルの詳細については、サポートされるエンベッディング・モデルを参照のこと。
テキスト変換の詳細については、テキスト埋め込み生成を参照してください。
2024年5月10日までの週
ダラス地区で新しいGranite基礎モデルが利用可能
9 2024年5月
watsonx.ai:から、IBMが提供する以下のGraniteコード基盤モデルを推論できるようになった:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
プログラム・コーディング・タスクには、新しいGraniteのコード・ファンデーション・モデルを使用する。 基礎モデルは、論理的推論や問題解決を含む指示追従能力を高めるために、指示データの組み合わせで微調整される。
詳しくは、サポートされているファンデーションモデルをご覧ください。
InstructLabの基礎モデルは、watsonx.aiで利用可能です
7 2024年5月
InstructLabは、Red Hatと IBMによるオープンソースのイニシアチブで、基礎モデルの能力を増強するためのプラットフォームを提供する。 以下の基礎モデルは、InstructLab:から提供される知識とスキルをサポートします:
- granite-7b-lab
- granite-13-chat-v2
- granite-20b-multilingual
- merlinite-7b
財団モデルのタクソノミーのページから、オープンソースコミュニティへの貢献を調べることができる。
詳しくはInstructLab-compatible基盤モデルをご覧ください。
2024年5月3日までの週
プロジェクト資産をフォルダに整理する
2 2024年5月
プロジェクト内にフォルダを作成して、アセットを整理できるようになりました。 プロジェクトの管理者はフォルダを有効にする必要があり、管理者と編集者はフォルダを作成・管理することができます。 フォルダはベータ版であり、本番環境での使用はまだサポートされていません。 詳しくは、フォルダによるアセットの整理(ベータ版)をご覧ください。
2024年4月26日までの週
IBM watsonx.aiはロンドン地域でご利用いただけます
2023年4月25日
Watsonx.aiは現在、ロンドンのデータセンターで一般的に利用可能で、サインアップの際に希望地域としてロンドンを選択することができる。
- ダラスで完全にサポートされている基礎モデルは、ロンドンのデータセンターでも、プロンプト・ラボから、あるいはAPIを使って推論することができる。 例外はmt0-xxl-13bと llama-2-70b-chatファンデーションモデルで、現在販売されているllama-3-70b-instructファンデーションモデルに取って代わられている。
- Tuning Studioから、またはAPIを使用して、3つのチューニング可能な基礎モデルをプロンプトチューニングします。
- 2つのIBMエンベッディングモデルとエンベッディングAPIがサポートされています。
詳しくは、サービスおよび機能の地域別利用可能性をご覧ください。
ホームページから直接Prompt Labでチャットを開始する
2023年4月25日
IBM watsonx.aiのホームページから、基礎モデルと会話を始めることができる。 チャットモードで基礎モデルに送信する質問を入力するか、「Open Prompt Lab」をクリックして、モデル入力を送信する前に基礎モデルとモデルパラメータを選択します。
2024年4月19日までの週
Meta Llama3ファンデーション・モデルが新登場
18 2024年4月
Meta が提供する以下のLlama 3基盤モデルは、watsonx.ai:から推論が可能です:
- llama-3-8b-instruct
- llama-3-70b-instruct
新しいLlama 3の基礎モデルは、様々なユースケースをサポートできるように細かく調整された言語モデルです。
この最新リリースのラマは、より多くのトークンを使ってトレーニングされ、新しいトレーニング後の手順が適用されている。 その結果、より優れた言語理解、推論、コード生成、命令追従能力を備えた基礎モデルが生まれた。
詳しくは、サポートされているファンデーションモデルをご覧ください。
テキストマッチングと検索を強化するIBMエンベッディングサポートの導入
18 2024年4月
IBMembeddeddings API とIBMembedding models を使用して、入力テキストをベクトルに変換し、類似のテキストをより正確に比較・検索できるようになりました。
以下のIBMSlate埋め込みモデルが利用可能です:
- slate.125m.english.rtrvr
- slate.30m.english.rtrvr
詳しくは、テキスト埋め込み生成をご覧ください。
料金の詳細については、Watson Machine Learningのプランをご覧ください。
IBM watsonx.governance is included when you sign up for IBM watsonx.ai
18 2024年4月
ダラス地域でwatsonx.aiにサインアップすると、watsonx.governanceが自動的に含まれるようになりました。 IBM watsonx as a Serviceのサインアップを参照してください。
スペースにおける機械学習の導入を評価する
18 2024年4月
watsonx.governance評価をデプロイメントスペースに設定することで、機械学習モデルのパフォーマンスに関する洞察を得ることができます。 例えば、配備の偏りを評価したり、配備のドリフトを監視したりする。 評価を設定すると、評価結果やトランザクションレコードのモデルをスペース内で直接分析できます。
詳しくは、スペースでの配備を評価するを参照。
東京地区には韓国語のファンデーションモデルがある
18 2024年4月
マインズ・アンド・カンパニーが提供するllama2-13b-dpo-v7ファンデーション・モデルは、メタ社のLlama 2ファンデーション・モデルをベースにしており、東京地区で入手可能である。
llama2-13b-dpo-v7の基礎モデルは、韓国語と英語の会話タスクに特化している。 また、llama2-13b-dpo-v7ファンデーションモデルを韓国語での一般的なタスクに使用することもできます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
mixtral-8x7b-instruct-v01基礎モデルが推論に利用できます
18 2024年4月
Mistral AI のmixtral-8x7b-instruct-v01基盤モデルは、watsonx.ai から推論が可能です。 mixtral-8x7b-instruct-v01基礎モデルは、より効率的にテキストを生成するために疎な専門家混合ネットワークを使用する事前学習済み生成モデルです。
mixtral-8x7b-instruct-v01モデルは、分類、要約、コード生成、言語翻訳などの汎用タスクに使用できます。 詳しくは、サポートされているファンデーションモデルをご覧ください。
mixtral-8x7b-instruct-v01-q基礎モデルは非推奨であり、2024年5月23日に廃止されます。 この基礎モデルを使用しているすべてのプロンプトを修正する。
- 廃止日:2024年4月19日
- 脱退日:2024年6月20日
- 代替モデル:mixtral-8x7b-instruct-v01
APIを使用してmixtral-8x7b-instruct-v01-qモデルに提出された推論リクエストは、出力を生成し続けますが、近日中のモデルの取り下げに関する警告メッセージが含まれます。 2024年6月20日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
granite-20b-multilingual基礎モデルに修正を加える
18 2024年4月
granite-20b-multilingualの最新バージョンは1.1.0です。 この修正には、バージョン1.0のモデルに新しいAIアライメント技術を適用することで得られた改良が含まれている。 AIの調整には、微調整と強化学習のテクニックを使って、できるだけ有益で、真実で、透明性のある出力を返すようにモデルを導くことが含まれる。
このファンデーション・モデルの詳細については、サポートされているファンデーション・モデルを参照のこと。
2024年4月12日までの週
granite-13b-instruct-v2基礎モデルの迅速な調整
11 2024年4月
Tuning Studioは、flan-t5-xl-3bと llama-2-13b-chat基礎モデルに加え、granite-13b-instruct-v2基礎モデルのチューニングをサポートするようになりました。 詳しくは、基礎モデルのチューニングをご覧ください。
granite-13b-instruct-v2の基礎モデルをチューニングするための実験構成設定は、タスクに応じて最適なデフォルト値を適用するように変更されます。 チューニング評価ガイドラインは、実験結果を分析し、その結果に基づいて実験構成設定を調整するのに役立ちます。 詳しくは、チューニング実験の結果を評価するをご覧ください。
フランクフルト地域にはアラビア語のファンデーションモデルがある
11 2024年4月
Inception、Mohamed bin Zayed University of Artificial Intelligence、Cerebras Systemsが提供するjais-13b-chat基盤モデルは、フランクフルト地域で利用できる。
jais-13b-chatの基礎モデルは、アラビア語と英語の会話タスクに特化している。 また、jais-13b-chat基礎モデルは、アラビア語と英語間の言語翻訳を含むアラビア語の一般的な目的のタスクに使用することができます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
プロンプト・ラボでプロンプトの全文を見る
11 2024年4月
プロンプトにプロンプト変数が含まれている場合や、構造化モードまたはチャットモードで作業している場合に便利です。
詳細はプロンプト・ラボを参照。
非推奨のGraniteバージョン1モデルは廃止された
11 2024年4月
以下のファンデーションモデルは現在販売中止となっている:
- granite-13b-chat-v1
- granite-13b-instruct-v1
これらの基盤モデルを使用しているプロンプトは、IBM Granite v2基盤モデルを使用するように修正してください。 Foundationモデルの廃止と撤退の詳細については、Foundationモデルのライフサイクルを参照してください。
2024年4月5日までの週
ピボットテーブルを使用して、Decision Optimization実験で集計されたデータを表示する
5 2024年4月
ピボットテーブルを使用して,Decision Optimization実験のVisualizationビューに集約された入力データと出力データの両方を表示できるようになった. 詳細については、 Decision Optimizationexperimentsの可視化ウィジェットを参照。
新しいwatsonx.aiのチュートリアルとビデオ
2024/04/04
新しいチュートリアルでは、データ準備からプロンプトエンジニアリングまで、エンドツーエンドのユースケースにおけるwatsonx.aiの使用方法をご覧いただけます。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
watsonx.aiのエンドツーエンドのユースケースを試す | データ準備からプロンプトエンジニアリングまで、ユースケースを追う。 | Use various tools, such as notebooks and Prompt Lab. |
2024年3月15日までの週
watsonx.aiAPI が利用可能です
14 2024年3月
watsonx.aiのAPIは一般に公開されている。 watsonx.aiAPI を使用して、プログラムでファンデーションモデルを操作します。 詳細はAPIリファレンスを参照。
APIのバージョンは2024-03-14
です。
ノートブックから基礎モデルを操作するために利用可能なPythonライブラリを引き続き使用することができます。 詳細はPythonライブラリを参照。
ダラス、フランクフルト、東京で新しいファンデーション・モデルを発表
14 2024年3月
現在、watsonx.ai:から推論に利用できる基礎モデルは以下の通りです:
granite-20b-multilingual: IBM Graniteファミリーの基礎モデルで、英語、ドイツ語、スペイン語、フランス語、ポルトガル語の様々な生成タスクに使用できます。
codellama-34b-instruct-hf:MetaのLlama 2をベースにしたCode Llamaのプログラムコード生成モデル。 codellama-34b-instruct-hfを使用すると、自然言語入力に基づいてコードを生成するプロンプトを作成したり、コードを完成させてデバッグしたりすることができます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年3月8日までの週
Tuning Studioはフランクフルトにあります
2024年3月7日
Tuning Studioは、フランクフルト地域の有料プランのユーザーが利用できるようになった。 Tuning Studioは、基礎モデルが有用な出力を返すように導くのに役立ちます。 フランクフルトのTuning Studioを使用すれば、flan-t5-xl-3bと llama-2-70b-chatの両基礎モデルをチューニングできます。
詳しくはTuning Studioをご覧ください。
首都圏におけるllama-2-13b-chat基礎モデルの迅速な調整
2024年3月7日
Tuning Studioが東京リージョンでllama-2-13b-chatの基礎モデルのチューニングをサポートしました。 まず、プロンプトラボで大きなllama-2-70b-chatモデルのプロンプトを作成し、ユースケースに効果的なプロンプト入力を探します。 その後、Llama 2モデルの小型版をチューニングして、ゼロショットプロンプトで同等、いやそれ以上の出力を生成する。
詳しくはTuning Studioをご覧ください。
Mixtral8x7bモデルの低価格化
5 2024年3月
基礎モデルmixtral-8x7b-instruct-v01-qは、クラス2:$0.0018/Resourceユニットからクラス1:$0.0006/Resourceユニットに再分類され、このモデルに対して推論タスクを実行することがよりコスト効率的になりました。 この再分類はmixtral-8x7b-instruct-v01-qが利用可能なすべての地域に適用される。
詳しくは、サポートされているファンデーションモデルをご覧ください。
料金の詳細については、Watson Machine Learningのプランをご覧ください。
AIリスクアトラスの更新と強化
5 2024年3月
AIリスクアトラスでは、以下の新コンテンツや強化されたコンテンツをご覧いただけます:
- ガバナンス、法令遵守、社会的影響リスクにまたがる非技術的リスクの新しいカテゴリー
- リスクに関する新しい例
- リスクの定義の明確化
AIリスクアトラスを参照。
watsonxの新しい使用例
5 2024年3月
watsonxのユースケースは、お客様が弊社の製品、サービス、ツールをどのように使用できるかを確認するのに役立ちます:
- watsonx.aiのユースケース:このユースケースは、機械学習とジェネレーティブ AI をオペレーションのフレームワークに統合することで、AI 駆動のソリューションでビジネスプロセスをどのように変革できるかについて説明します。
- watsonx.governanceのユースケース:このユースケースは、AIモデルを追跡、監視、再トレーニングするための統合システムによって、責任ある透明性の高い説明可能なAIワークフローを実現する方法を説明します。
watsonxの使用例をご覧ください。
2024年3月1日までの週
チャットモードはプロンプト・ラボで利用可能
2024年2月29日
プロンプト・ラボのチャット・モードは、基礎モデルの実験を容易にするシンプルなチャット・インターフェースです。 チャットモードは、すでに利用可能な構造化モードと自由形式モードを補強するもので、抽出、要約、分類などのタスクのために数ショットまたは多ショットのプロンプトを作成するときに便利です。 チャットモードを使用して、チャットボットやバーチャルアシスタントのユースケースのための質問応答や会話のやりとりをシミュレートします。
詳細はプロンプト・ラボを参照。
東京地区には日本語版Graniteが用意されている
2024年2月29日
IBMが提供するgranite-8b-japanese基盤モデルは、東京リージョンではwatsonx.aiから入手できる。 granite-8b-japanese基礎モデルは、IBM GraniteInstructモデルをベースにしており、日本語テキストを理解し、生成するように訓練されている。
granite-8b-japanese基礎モデルは、分類、抽出、質問応答、日英間の言語翻訳など、日本語の汎用タスクに使用できます。
詳しくは、サポートされているファンデーションモデルをご覧ください。
2024年2月23日までの週
Granite-13bモデルの低価格化
2024年2月21日
Granite-13bモデルは、クラス2:$0.0018/Resourceユニットからクラス1:$0.0006/Resourceユニットに再分類され、これらのモデルに対して推論タスクを実行する際の費用対効果が高くなった。 この再分類は、以下のモデルが販売されているすべての地域で適用される:
- granite-13b-chat-v2
- granite-13b-chat-v1
- granite-13b-instruct-v2
- granite-13b-instruct-v1
これらのモデルの詳細については、対応するファンデーションモデルを参照のこと。
料金の詳細については、Watson Machine Learningのプランをご覧ください。
2024年2月16日までの週
一般的な作業を開始するための新しいショートカット
2024年2月15日
概要タブの作業開始セクションのタイルをクリックすることで、プロジェクトの共通タスクを開始できるようになりました。 これらのショートカットを使って、共同作業者とデータの追加を開始し、モデルを実験・構築する。 View allをクリックすると、ツールの選択にジャンプします。
汎用タスク用新基礎モデルmixtral-8x7b-instruct-v01-q
2024年2月15日
Mistral AIが提供し、IBMが量子化したmixtral-8x7b-instruct-v01-q基礎モデルは、watsonx.aiから入手できる。 mixtral-8x7b-instruct-v01-q ファ基盤モデルは、Mistral AI の Mixtral 8x7B インストラクション・ファ基盤モデルの量子化されたバージョンです。
この新しいモデルは、分類、要約、コード生成、言語翻訳などの汎用タスクに使用できる。 詳しくは、サポートされているファンデーションモデルをご覧ください。
以下のモデルは非推奨であり、間もなく廃止される予定である。 これらの基礎モデルを使用しているプロンプトは、mixtral-8x7b-instruct-v01-qのような別の基礎モデルを使用するように修正してください。
非推奨モデル | 非推奨日付 | 退会日 | 代替モデル |
---|---|---|---|
gpt-neox-20b | 2024年2月15日 | 2024年3月21日 | mixtral-8x7b-instruct-v01-q |
mpt-7b-instruct2 | 2024年2月15日 | 2024年3月21日 | mixtral-8x7b-instruct-v01-q |
starcoder-15.5b | 2024年2月15日 | 11 2024年4月 | mixtral-8x7b-instruct-v01-q |
APIを使用してこれらのモデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデルの取り下げに関する警告メッセージが含まれる。 退会日に達すると、モデルを推論するためのAPIリクエストは出力を生成しなくなる。
非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
granite-13b-chat-v2ファウンデーションモデルの修正が可能です
2024年2月15日
granite-13b-chat-v22の最新バージョンは2.1.0です。 この修正には、バージョン2.0.0のモデルに新しいAIアライメント技術を適用することで得られた改良が含まれている。 AIの調整には、微調整と強化学習のテクニックを使って、できるだけ有益で、真実で、透明性のある出力を返すようにモデルを導くことが含まれる。 詳しくは、AIアライメントとは? IBMResearchのブログ記事。
新しいwatsonxのチュートリアルとビデオ
2024年2月15日
新しいwatsonx.governanceチュートリアルをお試しください。Watson OpenScale を使用して、公正さ、正確さ、ドリフト、説明可能性について機械学習モデルを評価する方法を学ぶことができます。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
機械学習モデルを評価する | モデルをデプロイし、デプロイされたモデルにモニターを設定し、モデルを評価する。 | Run a notebook to configure the models and use Watson OpenScale to evaluate. |
2024年2月9日までの週
タスク指向のDecision Optimizationドキュメント
9 2024年2月
Decision Optimization実験の作成と設定に必要な情報を、より簡単に見つけることができるようになりました。 Decision Optimization実験とそのサブセクションを参照。
IBM Cloud Data Engineの接続は非推奨です
2022年2月8日
IBM Cloud Data Engine接続は非推奨であり、将来のリリースで廃止される予定です。 重要な日付と詳細については、データエンジンの廃止をご覧ください。
Data Refineryフロー・ジョブを実行するための新しいSpark3.4環境
9 2024年2月
Data Refineryフロージョブの環境を選択する際に、Sparkの機能強化を含むDefault Spark3.4& R4.22を選択できるようになりました。
デフォルトのSpark3.3& R4.2環境は非推奨であり、将来のアップデートで削除される予定です。
Data Refineryのフロー・ジョブを更新して、新しいDefault Spark3.4& R4.2環境を使用するようにします。 詳細は、プロジェクトData Refineryのオプションを参照してください。
2024年2月2日までの週
サンプルコレクションはリソースハブに名称変更
2024年2月2日
Samplesコレクションは、より内容を反映するためにResource hubに改名されました。 リソースハブには、基礎モデル、サンプルプロジェクト、データセット、ノートブックがあります。 リソースハブを参照。
IBM Cloud Databases for DataStaxの接続は終了しました
2024年2月2日
IBM Cloud Databases for DataStax接続はIBM watsonx.aiから削除されました。
Dremio接続にはアップデートが必要
2024年2月2日
以前のDremio接続はJDBCドライバを使っていた。 現在、接続にはArrow Flightベースのドライバーを使用している。
Dremioソフトウェア:ポート番号を更新してください。
Flightが使用する新しいデフォルトのポート番号は32010
です。 ポート番号はdremio.confファイルで確認できる。 詳しくは dremio.confによる設定を参照してください。
さらに、Dremioは IBM Cloud Satelliteとの接続をサポートしなくなった。
DremioCloudです:認証方法とホスト名を更新します。
- Dremioにログインし、個人アクセストークンを生成する。 手順については、パーソナル・アクセストークンを参照してください。
- IBM watsonxの[接続の作成]にある:Dremioフォームで、認証タイプをPersonal Access Tokenに変更し、トークン情報を追加します。 (ユーザー名とパスワードによる認証は、Dremioクラウドインスタンスへの接続に使用できなくなりました)
- ポートがSSL対応であることを選択します。
DremioCloud インスタンスにデフォルトのホスト名を使用している場合は、変更する必要があります:
sql.dremio.cloud
data.dremio.cloud
に変更sql.eu.dremio.cloud
data.eu.dremio.cloud
に変更
llama-2-13b-chat基礎モデルのプロンプトチューン
2024年2月1日
Tuning Studioがllama-2-13b-chatファンデーションモデルのチューニングに対応しました。 まず、プロンプトラボで大きなllama-2-70b-chatモデルのプロンプトを作成し、ユースケースに効果的なプロンプト入力を探します。 その後、Llama 2モデルの小型版をチューニングして、ゼロショットプロンプトで同等、いやそれ以上の出力を生成する。 llama-2-13b-modelは、ダラス地域で迅速なチューニングが可能です。 詳しくはTuning Studioをご覧ください。
2024年1月26日までの週
AutoAIはすべての実験で順序データをサポートする
2024年1月25日
時系列実験だけでなく、すべてのAutoAI実験で順序付きデータを指定できるようになりました。 行索引に従って、トレーニング・データを順次に配列するかどうかを指定します。 入力データがシーケンシャルである場合、モデルの性能はランダムサンプリングではなく最新のレコードで評価され、ホールドアウトデータはn個のランダムレコードではなくセットの最後のn個のレコードを使用する。 時系列実験では連続データが必要だが、分類実験や回帰実験では任意である。
RAGアクセラレーターとのQ&A
2024年1月26日
サンプルプロジェクトをインポートすることで、検索拡張生成を使用した質疑応答ソリューションを実装できるようになりました。 サンプル・プロジェクトには、ドキュメントをHTMLやPDFからプレーン・テキストに変換し、ドキュメント・セグメントをElasticsearchのベクトル・インデックスにインポートし、ベクトル・インデックスにクエリするPython関数をデプロイし、トップNの結果を取得し、LLM推論を実行して質問に対する答えを生成し、答えが幻覚でないかチェックするノートブックやその他のアセットが含まれている。
ダークテーマに設定
2024年1月25日
watsonxのユーザーインターフェイスをダークテーマに設定できるようになりました。 アバターをクリックし、プロフィールと設定を選択してアカウントプロフィールを開きます。 次に、ダークテーマのスイッチをオンに設定する。 ダークテーマはRStudioとJupyterノートブックではサポートされていません。 プロフィールの管理については、設定の管理をご覧ください。
IBM watsonx.aiは東京リージョンで利用可能です
2024年1月25日
Watsonx.aiは現在、東京のデータセンターで一般的に利用可能であり、契約時に希望する地域として選択することができる。 プロンプト・ラボとファンデーション・モデルの推論は、東京地区ではこれらのモデルでサポートされている:
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- granite-13b-chat-v2
- granite-13b-instruct-v2
- llama-2-70b-chat
- llama-2-13b-chat
東京地区からも購入可能:
- Tuning Studioを使用したflan-t5-xl-3b基礎モデルの迅速なチューニング
- Synthetic Data Generatorで表形式のデータを生成し、モデルのトレーニングに使用する
サポートされているモデルの詳細については、 watsonx.aiで利用可能なサポートされている基礎モデルをご覧ください。
東京地区には日本語モデルのLlama 2がある
2024年1月25日
株式会社ELYZAが提供するelyza-japanese-llama-elyza-japanese-llama-2-7b-instruct-7b-instruct基盤モデルは、東京データセンターのwatsonx.aiインスタンスから利用可能です。 elyza-japanese-llama-2-elyza-japanese-llama-2-7b-instructb-instructモデルは、MetaのLlama 2モデルのバージョンで、日本語テキストを理解し生成するように訓練されている。
この新しいモデルは、一般的な作業に使用できる。 日本語の分類や抽出、日英間の翻訳に威力を発揮する。
2024年1月12日までの週
Watson Machine Learningで IBMRuntime22.22のサポートが非推奨に
2024年1月11日
IBMRuntime22.22は非推奨であり、2024年4月11日に削除される予定です。 2024年3月7日以降、22.2ランタイムを使用してノートブックやカスタム環境を作成することはできません。 また、22.2ランタイムに基づくソフトウェア仕様で新しいモデルをトレーニングすることはできません。
- 資産をサポートされているフレームワークやソフトウェア仕様に移行する方法については、「古いソフトウェア仕様やフレームワークの管理」を参照してください。
- ノートブック環境の詳細については、プロジェクトのノートブック・エディタのリソース・オプションを計算してください。
- 環境の変更について詳しくは、ノートブックの環境を変更するをご覧ください。
IBM Granite v1ファンデーション・モデルは廃止されました
2024年1月11日
IBM Granite130億パラメータv1基礎モデルは、非推奨であり、2024年4月11日に廃止される。 バージョン1のモデルを使用している場合は、バージョン2のモデルに切り替えてください。
非推奨モデル | 非推奨日付 | 退会日 | 代替モデル |
---|---|---|---|
granite-13b-chat-v1 | 2024年1月11日 | 11 2024年4月 | granite-13b-chat-v2 |
granite-13b-instruct-v1 | 2024年1月11日 | 11 2024年4月 | granite-13b-instruct-v2 |
APIを使用してバージョン1モデルに送信された推論リクエストは、出力を生成し続けるが、近日中のモデル廃止に関する警告メッセージが含まれる。 2024年4月11日以降、モデルを推論するためのAPIリクエストは出力を生成しません。
IBM Graniteファンデーション・モデルの詳細については、 IBMが構築したファンデーション・モデルを参照してください。 非推奨と脱退の詳細については、Foundation モデルのライフサイクルを参照してください。
2023年12月15日までの週
ジョブやその他の操作のためのユーザーAPIキーの作成
2023年12月15日
ジョブやモデル・トレーニングなど、IBM watsonx の特定の実行時操作には、安全な認可のためのクレデンシャルとして API キーが必要です。 ユーザー API キーを使用すると、必要に応じてIBM watsonxで直接 API キーを生成してローテーションできるようになり、業務が円滑に進むようになります。 APIキーはIBM Cloudで管理されるが、IBM watsonxで作成したりローテーションしたりするのが便利だ。
ユーザーAPIキーはアカウント固有のもので、アカウントプロフィールのプロフィールと設定から作成されます。
詳細については、ユーザーAPIキーの管理を参照してください。
新しいチュートリアルとビデオ
2023年12月15日
新しいwatsonx.governanceとwatsonx.aiチュートリアルをお試しください。基礎モデルのチューニングや、プロンプトテンプレートの評価とトラッキングの方法を学ぶことができます。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
ファ基盤モデルの調整 | 基礎モデルをチューニングして、モデルのパフォーマンスを向上させる。 | Use the Tuning Studio to tune a model without coding. |
プロンプト・テンプレートの評価と追跡 | プロンプトテンプレートを評価し、ファンデーションモデルのパフォーマンスを測定し、プロンプトテンプレートのライフサイクルを追跡する。 | Use the evaluation tool and an AI use case to track the prompt template. |
Find more watsonx.governance and watsonx.ai videos in the ビデオライブラリー.
新規ログインセッションの有効期限切れと非アクティブによるサインアウト
2023年12月15日
セッションの有効期限が切れたため、IBM Cloudからサインアウトされました。 あなたのセッションは、ログインセッションの有効期限(デフォルトでは24時間)または非アクティブ(デフォルトでは2時間)により失効する可能性があります。 IBM Cloud の Access (IAM) 設定で、デフォルトの期間を変更できます。 詳細については、ログインセッションの有効期限を設定するを参照してください。
IBM Cloud Databases for DataStaxコネクタは廃止予定です
2023年12月15日
IBM Cloud Databases for DataStaxコネクターは非推奨であり、将来のリリースで廃止される予定です。
2023年12月08日までの週
Tuning Studio
7 2023年12月
Tuning Studioは、基礎モデルが有用な出力を返すように導くのに役立ちます。 Tuning Studioを使用すると、分類、要約、生成などの自然言語処理タスクのパフォーマンスを向上させるために、flan-t5-xl-3b基礎モデルを迅速にチューニングすることができます。 迅速なチューニングは、より小さく、より計算効率の高い基礎モデルが、同じモデルファミリーのより大きなモデルに匹敵する結果を達成するのに役立ちます。 より小さなモデルをチューニングして展開することで、長期的な推論コストを削減することができる。 Tuning Studioは、ダラス地域の有料プランのユーザーが利用できる。
- 詳しくはTuning Studioをご覧ください。
- まずはクイックスタート基礎モデルを調整するをご覧ください。
- サンプル・ノートブックを実行するには、 watsonxの CFPB ドキュメントを分類するモデルのチューニングにアクセスしてください。
ワークロード管理のためのDb2接続の新しいクライアント・プロパティ
8 2023年12月
監視のために、以下のフィールドでプロパティを指定できるようになりました:アプリケーション名、クライアントアカウント情報、クライアントホスト名、クライアントユーザ。 これらのフィールドはオプションであり、以下の接続で使用できる:
2023年12月1日までの週
Watsonx.governanceが利用できる!
2023年12月1日
Watsonx.governanceは、Watson OpenScaleのガバナンス機能を拡張し、基礎モデル資産と機械学習資産を評価する。 例えば、精度のような次元で基礎モデルのプロンプトテンプレートを評価したり、憎悪や罵詈雑言の存在を検出したりする。 また、ビジネス上の問題に対処するためにAIのユースケースを定義し、プロンプトテンプレートを追跡したり、ファクトシートでデータをモデル化して、コンプライアンスやガバナンスの目標をサポートすることもできる。 Watsonx.governanceのプランと機能は、ダラス地域でのみご利用いただけます。
- プランの詳細は、watsonx.governanceplansをご覧ください。
- ガバナンス機能の詳細については、watsonx.governanceoverviewを参照のこと。
- まずは、 watsonx.governanceのプロビジョニングと立ち上げをご覧ください。
AIリスクアトラスで探る
2023年12月1日
これで、ジェネレーティブAI、基礎モデル、機械学習モデルを扱うリスクのいくつかを探ることができる。 プライバシー、公平性、説明可能性、価値観の一致、その他の分野におけるリスクについてお読みください。 AIリスクアトラスを参照。
IBM Graniteモデルの新バージョンが登場
2023.11.30
Graniteの最新バージョンには、これらの変更が含まれている:
granite-13b-chat-v2:質問応答、要約、生成タスクをより良くするように調整。 十分なコンテクストがあれば、前バージョンよりも以下の点が改善された回答が生成される:
- プロフェッショナルな口調で、より長く、より質の高い応答を生成する
- 思考の連鎖をサポート
- 人物の言及を認識し、トーンや感情をよりよく検出できる
- 入力中の空白をより優雅に扱う
広範な変更があるため、最新バージョンに切り替える前に、v1用に設計されたプロンプトをテストし、修正してください。
granite-13b-instruct-v2:分類、抽出、要約タスク用に特別にチューニングされている。 最新バージョンは以下の点で旧バージョンと異なる:
- 様々な長さの、多様な語彙を用いた、より首尾一貫した解答を返す
- 人物の言及を認識し、長い入力を要約できる
- 入力中の空白をより優雅に扱う
v11でうまく機能したエンジニアのプロンプトは、v2でもうまく機能する可能性が高いですが、機種変更する前に必ずテストしてください。
Graniteの最新モデルはクラス2に分類される。
一部のファンデーション・モデルはより低価格で入手可能に
2023.11.30
人気のあるファンデーションモデルのいくつかは、より低コストの課金クラスに再分類された。
以下のファンデーションがクラス3からクラス2に変更された:
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b
以下のファンデーションモデルがクラス2からクラス1に変更された:
- llama-2-13b
課金クラスの詳細については、Watson Machine Learningのプランをご覧ください。
新しいサンプルノートブックをご用意しました:ディスカバリーとRAG入門
2023.11.30
IBM Watson Discoveryを検索コンポーネントとして使用するIBM watsonx.aiで、検索拡張生成パターンを適用する方法については、「Introduction to RAG with Discovery」ノートブックを使用してください。 詳細については、「ディスカバリーとRAG入門」を参照のこと。
サービスとしてのwatsonxとソフトウェア導入の機能の違いを理解する
2023.11.30
IBM watsonx as a ServiceとwatsonxonCloud Pak for Dataソフトウェア、バージョン4.8 の機能と実装を比較できるようになりました。 watsonxデプロイメント間の機能の違いを参照。
停止シーケンスの処理方法の変更
2023.11.30
改行文字などのストップシーケンスがプロンプト・ラボで指定された場合、モデル出力テキストはストップシーケンスの最初の出現の後で終了します。 出力の最初に発生した場合でも、モデルの出力は停止する。 以前は、停止シーケンスがモデル出力の最初に指定されている場合、無視されていた。
2023年11月10日までの週
小型版のLlama-2Chatモデルもあります
9 2023年11月
Llama-2チャット・モデルの13b版と70b版のどちらを使用するか選択できるようになりました。 選択する際には、これらの要素を考慮してください:
- コスト
- パフォーマンス
13bバージョンはクラス2モデルで、70bバージョンよりも安く使用できる。 ベンチマークや、各モデルサイズの二酸化炭素排出量などのその他の要素を比較するには、モデル・カードをご覧ください。
プロンプト変数を使用して再利用可能なプロンプトを作成する
プロンプト変数を使用してプロンプトに柔軟性を追加します。 プロンプト変数はプロンプト入力の静的テキストのプレースホルダーとして機能し、推論時に動的にテキストに置き換えることができる。 プロンプト変数名とデフォルト値をプロンプトテンプレートアセットに保存して、プロジェクト内で再利用したり、共同作業者と共有したりすることができます。 詳細については、再利用可能なプロンプトのビルドを参照してください。
ランタイム23.1における Python 3.10およびR4.2フレームワークとソフトウェア仕様のサポートを発表
9 2023年11月
Python 3.10と R4.2 に基づく最新のデータ・サイエンス・フレームワークを含むIBMRuntime23.1 を使用して、Watson StudioJupyter ノートブックと R スクリプトを実行し、モデルをトレーニングし、Watson Machine Learningデプロイメントを実行できる
- IBMRuntime23.1リリースと、Python 3.10およびR4.22に含まれる環境については、ノートブック環境の変更を参照してください。
- デプロイメント・フレームワークについて詳しくは、『フレームワークおよびソフトウェア仕様の管理』を参照してください。
Apache Spark 3.4てノートブックとスクリプトを実行する
Spark3.4と Python 3.10、R4.2が、プロジェクト内のノートブックとRStudioスクリプトのランタイムとしてサポートされました。 利用可能なノートブック環境の詳細については、Compute resource options for notebook editor in projectsおよびCompute resource options for RStudio in projectsを参照してください。
2023年10月27日までの週
SatelliteConnectorを使用してオンプレミスデータベースに接続する
2023年10月26日
新しいSatelliteConnectorを使用して、インターネット経由でアクセスできない(たとえば、ファイアウォールの背後にある)データベースに接続します。 SatelliteConnectorは、オンプレミス環境からIBM Cloudに戻るセキュアで監査可能な通信を作成する、軽量のDockerの通信を使用します。 手順については、ファイアウォールの背後にあるデータへの接続を参照してください。
Secure Gatewayは非推奨
2023年10月26日
IBM Cloudは Secure Gatewayの廃止を発表した。 詳しくは、概要とタイムラインを参照のこと。
2023年10月20日までの週
トークンの最大サイズが増加
2023/10/16
基礎モデルからの出力に許容されるトークンの最大数に適用されていた制限は、有料プランから削除されました。 プロンプトエンジニアリング中に、プロンプトラボとPythonライブラリの両方から、より大きな最大トークン値を使用することができます。 トークンの正確な許容数はモデルによって異なる。 有料プランおよびライト・プランのトークン制限について詳しくは、 サポートされる基盤モデルを参照してください。
2023年10月13日までの週
サンプルの新しいノート
2023年10月12日
2つの新しいノートブックが利用可能で、検索-拡張生成パターンの検索フェーズでElasticsearchのベクトルデータベースを使用する。 このノートブックは、インデックス化された文書と、ユーザーから送信されたクエリーテキストとの間の意味的類似性に基づいて、マッチを見つける方法を示している。
Decision Optimization化の中間解
2023年10月12日
Decision Optimization実験の実行中に中間解のサンプルを見ることを選択できるようになりました。 これはデバッグや、ソルバーがどのように進行しているかを確認するのに便利である。 解答に時間がかかる大きなモデルの場合、中間解を使えば、解答が完了するのを待つことなく、解答の潜在的な問題を素早く簡単に特定することができます。 You can configure the Intermediate solution delivery parameter in the Run configuration and select a frequency for these solutions. 詳細については、中間ソリューションと 実行設定パラメータを参照してください。
新しいDecision Optimization保存モデルダイアログ
Decision Optimizationのユーザー・インターフェイスから展開用にモデルを保存する際、入力スキーマと出力スキーマを確認し、含めるテーブルをより簡単に選択できるようになりました。 また、実行設定パラメーターの追加、変更、削除、環境の確認、使用されているモデルファイルの確認も可能です。 これらの項目はすべて、同じ「Save as model for deployment」ダイアログに表示されます。 詳細については、ユーザーインターフェイスを使用したDecision Optimizationモデルのデプロイを参照してください。
2023年10月6日までの週
フランクフルトの追加基盤モデル
2023年10月5日
ダラス・データ・センターで使用可能なすべての基盤モデルは、フランクフルト・データ・センターでも使用できるようになりました。 watsonx.ai プロンプト・ラボと基盤モデルの推論が、フランクフルト地域で以下のモデルに対してサポートされるようになりました。
- granite-13b-chat-v1
- granite-13b-instruct-v1
- llama-2-70b-chat
- gpt-neox-20b
- mt0-xxl-13b
- starcoder-15.5b
これらのモデルについて詳しくは、 watsonx.aiで使用可能なサポートされる基盤モデルを参照してください。
料金の詳細については、Watson Machine Learningのプランをご覧ください。
連結操作における新しい列の配置を制御するData Refinery
6 2023年10月
Concatenate操作の結果得られる新しいカラムの位置を指定する2つのオプションがあります:データセットの一番右の列か、元の列の隣です。
以前は、新しい列はデータセットの先頭に置かれていた。
Data Refineryの操作については、 Data RefineryのGUI操作を参照してください。
2023年9月29日までの週
自然言語生成のための IBM Granite 基盤モデル
2023年9月28日
IBM 基盤モデルの Granite ファミリーの最初の 2 つのモデルは、ダラス地域で使用できるようになりました。
- granite-13b-chat-v1: ダイアログのユースケースに最適化された一般的なユースモデル
- granite-13b-instruct-v1: 質問回答用に最適化された一般用モデル
どちらのモデルも、英語の言語を効率的に予測・生成できる13B-parameterのデコーダーモデルである。 Graniteファミリーの他のモデルと同様、ビジネス向けに設計されている。 Graniteは、公共のインターネットなどの一般的な言語ソースと、学術、科学、法律、金融分野などの業界固有のデータソースの両方から、複数テラバイトのデータに対して事前学習される。
今すぐプロンプト・ラボでお試しください。また、センチメント分析にgranite-13b-instruct-v1モデルを使用したサンプルノートブックを実行してみてください。
詳しくは、 Building AI for business: IBMの Granite 基盤モデル のブログ投稿を参照してください。
- これらのモデルについて詳しくは、 watsonx.aiで使用可能なサポートされる基盤モデルを参照してください。
- サンプル・プロンプトの説明については、 一般的なタスクのサンプル・基盤モデル・プロンプトを参照してください。
- 料金の詳細については、Watson Machine Learningのプランをご覧ください。
2023年9月22日までの週
Decision OptimizationJavaモデル
2023年9月20日
Decision OptimizationJavaモデルがWatson Machine Learningに導入できるようになりました。 JavaワーカーAPIを使用することで、OPL、CPLEX、CP OptimizerのJava APIで最適化モデルを作成することができます。 公開されているJava workerGitHub で提供されているボイラープレートを使用することで、ローカルでモデルを簡単に作成し、パッケージ化してWatson Machine Learningにデプロイできるようになりました。 詳細については、 Decision Optimization用のJavaモデルのデプロイを参照してください。
リソースハブの新しいノートブック
2023年9月21日
リソース・ハブでは以下の新しいノートブックを使用できます:
2023年9月15日までの週
プロンプトエンジニアリングと合成データのクイックスタートチュートリアル
2023年9月14日
新しいチュートリアルをお試しください:
- プロンプト・基盤モデル: 通常、正常な結果を得るために基盤モデルにプロンプトを出す方法は複数あります。 プロンプト・ラボでは、さまざまな基盤モデルのプロンプトを試したり、サンプル・プロンプトを探索したり、最適なプロンプトを保存して共有したりすることができます。 生成される出力の精度を向上させる一つの方法は、検索補強型生成パターンを使って、必要な事実をプロンプトテキストの文脈として提供することである。
- 合成データを生成するwatsonx.ai で合成表データを生成することができます。 合成データの利点は、オンデマンドでデータを調達し、ユースケースに合わせてカスタマイズし、大量に生産できることだ。
チュートリアル | 説明 | チュートリアルの専門知識 |
---|---|---|
プロンプト・ラボを使用した基盤モデルのプロンプト | さまざまな基盤モデルにプロンプトを出し、サンプル・プロンプトを探索し、最適なプロンプトを保存して共有します。 | Prompt a model using Prompt Lab without coding. |
取得拡張された生成パターンを使用して基盤モデルにプロンプトを出す | 知識ベース内の情報を活用して、基盤モデルを促進します。 | Use the retrieval-augmented generation pattern in a Jupyter notebook that uses Python code. |
合成表データの生成 | グラフィカルなフローエディターを使って、合成表データを生成する。 | Select operations to generate data. |
Watsonx.aiコミュニティ
2023年9月14日
watsonx.aiコミュニティに参加することで、AIアーキテクトやビルダーが学び、アイデアを共有し、他の人とつながることができます。
2023年9月8日までの週
Synthetic Data Generatorで合成表データを生成する
2023年9月7日
ダラスとフランクフルトで利用可能になったSynthetic Data Generatorは、watsonx.aiの新しいグラフィカルエディターツールで、モデルのトレーニングに使用する表形式のデータを生成するために使用できます。 ビジュアルフローと統計モデルを使用して、既存のデータまたはカスタムデータスキーマに基づいて合成データを作成できます。 元のデータをマスクし、合成データをデータベースまたはファイルとしてエクスポートすることができます。
まずは、合成データをご覧ください。
Llama-2 自然言語の生成とチャットのための基盤モデル
2023年9月7日
メタ社のLlama-2ファンデーション・モデルがダラス地区で発売された。 Llama-2チャットモデルは、最適化された変換器アーキテクチャを使用する自動回帰型言語モデルです。 このモデルは、一般に公開されているオンラインデータを使って事前に学習され、その後、人間のフィードバックから強化学習を使って微調整される。 このモデルは、英語のアシスタントのようなチャットシナリオでの商用および研究使用を目的としている。
- Llama-2 モデルについて詳しくは、 watsonx.aiで使用可能なサポートされている基盤モデルを参照してください。
- サンプル・プロンプトの説明については、 一般的なタスクのサンプル・基盤モデル・プロンプトを参照してください。
- Llama-2の価格詳細については、Watson Machine Learningのプランをご覧ください。
基盤モデル Python ライブラリーの LangChain 拡張
2023年9月7日
基盤モデル Python ライブラリー用の新しい LangChain 拡張を使用して、 watsonx.ai 内の基盤モデルで LangChain フレームワークを使用できるようになりました。
このサンプルノートブックは、新しい拡張機能の使い方を示しています:サンプルノートブック
検索支援型生成パターンの導入サンプル
2023年9月7日
取得拡張世代は、知識ベースを活用して基盤モデルから事実上正確な出力を得るための、単純で強力な手法です。
2023年9月1日までの週
ノートブックにおけるコメントの非推奨
2023年8月31日
現在のところ、ノートブックのアクションバーからノートブックにコメントを追加することはできません。 既存のコメントはすべて削除された。
コード生成およびコード変換のための StarCoder 基盤モデル
2023年8月31日
ハギング・フェイスのStarCoderモデルがダラス地域で発売された。 StarCoderを使用して、コードを生成したり、あるプログラミング言語から別のプログラミング言語にコードを変換したりするためのプロンプトを作成します。 1つのサンプルプロンプトは、StarCoderを使用して命令セットからPythonコードを生成する方法を示しています。 2番目のサンプルプロンプトは、StarCoderてC++で書かれたコードをPythonコードに変換する方法を示している。
- StarCoder モデルについて詳しくは、 watsonx.aiで使用可能なサポートされる基盤モデルを参照してください。
- サンプル・プロンプトの説明については、 共通タスクのサンプル・基盤モデル・プロンプトを参照してください。
IBM watsonx.aiはフランクフルト地域で利用可能です
2023年8月31日
Watsonx.aiは現在、フランクフルトのデータセンターで一般的に利用可能で、契約時に希望する地域として選択することができる。 フランクフルト地域では、以下のモデルに対してプロンプト・ラボと基盤モデルの推論がサポートされています。
mpt-7b-instruct2
flan-t5-xxl-11b
flan-ul2-20b
サポートされているモデルの詳細については、 watsonx.aiで利用可能なサポートされている基礎モデルをご覧ください。
2023年8月25日までの週
Watson Pipelinesで利用可能なキャッシュの追加機能
2023年8月21日
パイプラインフローの設定をカスタマイズするために、さらに多くのオプションが用意されています。 パイプラインの実行にキャッシュを使用するタイミングを、より細かく制御できるようになった。 詳細については、デフォルト設定の管理を参照してください。
2023年8月18日までの週
Watson Machine Learningの名称更新を計画
2023年8月18日
IBM Watson Machine Learningサービスのプラン名が以下のように更新されました:
v2スタンダードプランがエッセンシャルプランになりました。 このプランは、基礎モデルや機械学習資産の使用を開始するために必要なリソースを提供するように設計されています。
v2プロフェッショナルプランがスタンダードプランになりました。 この計画は、資産の創出から生産的利用まで、ほとんどの組織を支援するためのリソースを提供するものである。
プラン名を変更しても、利用規約は変更されません。 つまり、v2スタンダードプランの利用登録をされている場合は、エッセンシャルという名称に変更されますが、プランの詳細はすべて変わりません。 同様に、v2プロフェッショナル・プランの利用登録をされている場合は、プラン名がスタンダードに変更される以外に変更はありません。
各プランに含まれる内容の詳細については、Watson Machine Learningのプランをご覧ください。 価格情報については、IBM CloudカタログのWatson Machine Learningプラン・ページでプランを検索してください。
2023年8月11日までの週
ノートブックにおけるコメントの非推奨
2023年8月7日
2023年8月31日、ノートブックのアクションバーからノートブックにコメントを追加できなくなります。 そのようにして追加された既存のコメントはすべて削除される。
2023年8月4日までの週
ライト・プランのトークン上限増加
4 2023年8月
基礎モデルのテストにLiteプランを使用している場合、プロンプトの入力と出力のトークン上限が、1アカウントあたり1ヶ月あたり25,000から50,000に増加しました。 これによって、基礎モデルの探求やプロンプトの実験に、より柔軟性を与えることができる。
- watsonx.aiのプランの詳細については、Watson Machine Learningのプランをご覧ください。
- プロンプトの詳細については、プロンプトラボのエンジニアプロンプトを参照してください。
カスタムテキスト分析テンプレートSPSS Modeler
4 2023年8月
SPSS Modelerでは、カスタムテキスト分析テンプレートをプロジェクトにアップロードできるようになりました。 これにより、あなたの文脈に合った方法で、キーとなるコンセプトをより柔軟に捉え、抽出することができる。
2023年7月28日までの週
財団モデルPythonライブラリ利用可能
2023年7月27日
Pythonライブラリを使用して、watsonx.aiの基礎モデルをプログラムでプロンプト表示できるようになりました。
ご覧ください:財団モデルPythonライブラリ
2023年7月14日までの週
コントロールAIのガードレール
14 2023年7月
プロンプト・ラボでAIガードレールのオン/オフをコントロールできるようになりました。 AIガードレールは、入力フィールドと出力フィールドの両方から潜在的に有害なテキストを除去する。 有害なテキストには、ヘイトスピーチ、罵倒、冒涜が含まれる。 潜在的に有害なテキストの削除を防ぐには、AIガードレールスイッチをオフに設定します。 ヘイトスピーチ、罵倒、冒涜を参照のこと。
Microsoft Azure SQL Database接続は、Azure Active Directory認証AzureAD)をサポートしています
14 2023年7月
Microsoft Azure SQL Databaseの接続にActive Directoryを選択できるようになりました。 Active Directory認証はSQL Server認証の代替である。 この機能強化により、管理者はAzureへのユーザー権限を一元管理できる。 詳細については、Microsoft Azure SQL Database接続を参照してください。
2023年7月7日までの週
IBM watsonx.aiへようこそ!
2023年7月7日
IBM watsonx.aiは、機械学習と基礎モデルを扱うために必要なすべてのツールを提供します。
始めよう:
このドキュメントで生成的AI検索と回答を試す
2023年7月7日
watsonx.aiのドキュメントにある新しいジェネレーティブAIの検索と回答のオプションを試すことで、ジェネレーティブAIが実際に動いているのを見ることができる。 回答は、watsonx.aiで実行されている大規模な言語モデルによって、ドキュメントの内容に基づいて生成される。 この機能は、watsonx.ai にログインした状態でドキュメントを閲覧している場合にのみ利用できます。
ドキュメントの検索フィールドに質問を入力し、Try Generative AI search and answerアイコンをクリックします。 Generative AIの検索と回答ペインが開き、質問に回答します。