0 / 0
資料の 英語版 に戻る
既知の問題と制限

既知の問題と制限

Cloud Pak for Data as a Service には、以下の制限事項と既知の問題が適用されます。

IBM Knowledge Catalog の問題のリスト

マスキング・フローの問題のリスト

Data Virtualization の問題のリスト

ノートブックの問題のリスト

機械学習の問題のリスト

機械学習の制限のリスト

Cognos Dashboard Embedded の問題のリスト

Watson OpenScale の問題のリスト

SPSS Modeler の問題のリスト

接続の問題のリスト

Cloud Object Storage の問題

  • 機械学習の問題のリスト
    • Key Protect を有効にして Cloud Object Storage を指定したプロジェクトで Watson Machine Learning を使用している資産でエラーが発生しました。
    • Auto AI
    • 学習の統合
    • Watson Pipelines
  • SPSS Modeler の問題のリスト
    • Key Protect を有効にして Cloud Object Storage を指定すると、モデルをプロジェクトに保存できません。
  • ノートブックの問題のリスト
    • Key Protect を有効にして Cloud Object Storage を指定すると、モデルをプロジェクトに保存できません。

IBM Knowledge Catalog

IBM Knowledge Catalogを使用すると、カタログの使用時に以下の既知の問題および制約事項が発生する場合があります。

Data Refinery でマスクされた資産を使用できない

マスクされた資産の場合、 Data Refinery ジョブは失敗します。 マスキングの前に初期データ資産にアクセスできる場合、回避策は、マスクされていない資産で Data Refinery を使用することです。

マスクされたデータは、データ可視化ではサポートされません

マスクされたデータは、データ視覚化ではサポートされません。 プロジェクト内のデータ資産の 「視覚化」 タブでグラフを生成しているときに、マスクされたデータを処理しようとすると、 Bad Request: Failed to retrieve data from server. Masked data is not supportedというエラー・メッセージを受け取ります。

一部のプロジェクト・ツールでデータがマスクされない

マスクされた列が含まれる接続済みデータ資産をカタログからプロジェクトに追加すると、データを表示したり、Data Refinery ツールでデータを精製したりする場合に、その列はマスクされたままになります。 ただし、プロジェクト内の他のツールでは、接続を介してデータにアクセスするときにマスキングを保持しません。 例えば、ノートブック、 DataStage フロー、ダッシュボード、またはその他のプロジェクト・ツールで接続データをロードする場合は、直接接続を介してデータにアクセスし、マスキングをバイパスします。

事前定義ガバナンス成果物が使用できない可能性があります

事前定義された分類またはデータ・クラスが表示されない場合は、以下の API 呼び出しを使用してテナントを再初期化します。

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

小文字の E メール・アドレスでコラボレーターを追加する

コラボレーターをカタログに追加する場合は、E メール・アドレスをすべての小文字で入力してください。 大/小文字混合の E メール・アドレスはサポートされません。

Object Storage 接続の制限

Cloud Object Storage (S3 API) 接続または Cloudant 接続を表示すると、フォルダー自体が子資産としてリストされます。

複数の同時接続操作が失敗する場合がある

複数のユーザーが同時に接続操作を実行している場合に、エラーが発生することがあります。 エラー・メッセージは異なる場合があります。

カタログ作成後にデータ保護ルールの適用を有効にできません

カタログの作成後に、データ保護ルールの適用を有効にすることはできません。 カタログ内の資産にデータ保護ルールを適用するには、カタログ作成時に適用を有効にする必要があります。

評価が失敗した場合に資産がブロックされる

ポリシーが適用されているカタログ内のデータ資産には、以下の制約事項が適用されます。ヘッダーを持つファイル・ベースのデータ・資産では、列名に重複する列名、ピリオド (.)、または単一引用符 (') を使用できません。

評価が失敗すると、資産所有者を除くすべてのユーザーに対して資産がブロックされます。 その他のすべてのユーザーには、評価が失敗して資産がブロックされているためにデータ資産を表示できないというエラー・メッセージが表示されます。

メタデータ・エンリッチ結果のデータ・クラス・フィルターのみで大/小文字が区別されます

「列」タブでメタデータ・エンリッチ結果をフィルタリングする場合、大/小文字が区別されるのは データ・クラスエントリーのみです。 ビジネス用語スキーマ、および 資産フィルターの項目は、値の実際の大/小文字に関係なく、すべて小文字です。

資産のエンリッチ詳細に、最新のエンリッチ実行で適用された設定が反映されない場合があります

少なくとも 1 回実行されたメタデータ・エンリッチのエンリッチ・オプションを編集すると、資産の詳細には、最新のエンリッチ実行で適用されたオプションではなく、更新されたオプションが表示される場合があります。

メタデータ・エンリッチ資産内の個々のページに直接アクセスできません

メタデータ・エンリッチ資産内の資産または列の数が複数ページにわたる場合、特定のページに直接移動することはできません。 ページ番号ドロップダウン・リストは無効になっています。 代わりに、 「次のページ」ボタンと「前のページ」ボタンを使用してください。

場合によっては、UI でメタデータ・エンリッチ・ジョブの実行の完全なログが表示されないことがあります。

メタデータ・エンリッチ実行でのエラーのリストが非常に長い場合は、ジョブ・ログの一部のみが UI に表示される可能性があります。

回避策: ログ全体をダウンロードし、外部エディターで分析します。

エンリッチ結果をフィルタリングするときにスキーマ情報が欠落している可能性がある

エンリッチ結果の資産または列をソース情報でフィルタリングすると、スキーマ情報が使用できない場合があります。

回避策: エンリッチ・ジョブを再実行し、 「ソース」 フィルターを再度適用します。

Amazon Redshift データ・ソースからのデータ資産の時間タイプの列に対してルールを実行すると、適切な結果が返されない

Amazon Redshift データ・ソースからのデータ資産の場合、タイム・スタンプ・タイプの列がインポートされます。 そのような列に時間固有のデータ品質ルールを適用することはできません。

3.0.0 より前のバージョンの Apache Hive へのメタデータ・エンリッチ出力の書き込み

メタデータ・エンリッチによって生成されたデータ品質出力を 3.0.0より前のソフトウェア・バージョンの Apache Hive データベースに書き込む場合は、 Apache Hive サーバーで以下の構成パラメーターを設定します。

set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true;   # (not required for version 2)

set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true;   # might not be available depending on the version
set hive.compactor.worker.threads=1;

詳しくは、 Hive Transactionsを参照してください。

エンリッチメント結果のビジネス用語フィルターに、割り当ての変更がすぐに反映されない場合がある

ビジネス用語の割り当てまたは割り当て解除を手動で行うと、ビジネス用語フィルターにこれらの変更がすぐに反映されない場合があります。

回避策: 「最新表示」 アイコン 「リフレッシュ」アイコンをクリックして、ページを最新表示します。

マスキング・フロー

マスキング・フローを使用する場合、データを私用化するときに、以下の既知の問題および制約事項が発生する可能性があります。

Data Refinery でマスクされた資産を使用できない

詳しくは、 Data Refineryを参照してください。

マスク・フロー・ジョブが失敗する可能性があります

マスキング・フロー・ジョブ中に、Spark はすべてのデータ・ソースをメモリーに読み込もうとする可能性があります。 ジョブをサポートするための十分なメモリーがない場合、エラーが発生する可能性があります。 デプロイされた最大の Spark 処理ノードに収まる最大データ・ボリュームは、約 12GBsです。

ノートブックの問題

ノートブックの使用を開始するときに、これらの問題のいくつかが発生することがあります。

ノートブックを複製しても、新規プロジェクト UI に固有の名前が作成されません

新規プロジェクト UI でノートブックを複製した場合、重複するノートブックは固有の名前で作成されません。

古いアカウントで資産を作成できません

2017 年 11 月より前にアクティブ化された Watson Studio のインスタンスで作業している場合は、ノートブックなどの運用資産を作成できない可能性があります。 「作成」ボタンがグレーのままで無効になっている場合は、サービス・カタログからアカウントに Watson Studio サービスを追加する必要があります。

Watson Studio の起動時に 500 内部サーバー・エラーを受け取りました

Watson Studio の起動時に HTTP 内部サーバー・エラー (500) を受け取ることはめったにありません。 これは、ブラウザーに保管されている Cookie の有効期限が切れたことが原因である可能性があります。 エラーの原因が失効した Cookie であることを確認するには、プライベート・ブラウズ・セッション (匿名) で、または別のブラウザーを使用して、 Watson Studio を起動してみてください。 新しいブラウザーで正常に起動できる場合は、Cookie の有効期限が切れたことがエラーの原因です。 以下の解決策を選択できます。

  1. ブラウザー・アプリケーションを完全に終了して、Cookie をリセットします。 ブラウザー・ウィンドウを閉じるだけではなく、アプリケーションを閉じて再始動する必要があります。 ブラウザー・アプリケーションを再始動し、Watson Studio を起動してセッション Cookie をリセットします。
  2. ブラウズ・データから IBM Cookie をクリアして、Watson Studioを起動します。 ブラウザーのブラウズ・データまたはセキュリティー・オプションを調べて、Cookie をクリアします。 すべての IBM Cookie をクリアすると、他の IBM アプリケーションに影響する可能性があることに注意してください。

これらの解決策のいずれかを実行しても 500 エラーが解決しない場合は、 Watson Studio に影響する IBM Cloud インシデントがないか 「状況」ページ を確認してください。 さらに、 IBM Cloud サポート・ポータルでサポート・ケースをオープンすることもできます。

ログイン時のエラー

Watson Studio にログインしようとすると、「予期しないエラーのため、Access Manager WebSEAL が要求を完了できませんでした」というエラー・メッセージが表示される場合があります。 ログインを再試行してください。 通常、2 回目のログイン操作は成功します。

Jupyter Notebook エディターでノートブックを HTML にエクスポートできない

Watson Studio以外のツールで作成された Jupyter Notebook を操作しているときに、ノートブックを HTML にエクスポートできない場合があります。 この問題は、セル出力が公開されている場合に発生します。

回避策

  1. Jupyter Notebook UI で、 「編集」 に移動し、 「ノートブック・メタデータの編集」をクリックします。

  2. 以下のメタデータを削除します。

    "widgets": {
       "state": {},
       "version": "1.1.2"
    }
    
  3. 編集」 をクリックします。

  4. ノートブックを保存します。

一部の Tensor ライブラリーの手動インストールがサポートされていない

一部の Tensor Flow ライブラリーはプリインストールされていますが、ユーザーが追加の Tensor Flow ライブラリーをインストールしようとするとエラーになります。

コード・セル実行後のノートブック・カーネルへの接続に予想以上の時間がかかる

カーネルに再接続してコード・セルを即時に実行しようとした場合 (またはコード実行中にカーネルの再接続が発生した場合)、ノートブックはカーネルに再接続せず、コード・セルの出力は表示されません。 「カーネル」 > 「再接続」をクリックして、カーネルに手動で再接続する必要があります。 カーネルが準備できたら、コード・セルを再度実行できます。

事前定義の sqlContext オブジェクトを複数のノートブックで使用するとエラーが発生する

事前定義の sqlContext オブジェクトを複数のノートブックで使用すると、Apache Spark エラーが発生することがあります。 ノートブックごとに新しい sqlContext オブジェクトを作成してください。 このスタック・オーバーフローの説明を参照してください。

接続失敗メッセージ

カーネルが停止すると、ノートブックがそれ以降自動的に保存されなくなります。 保存するには、「ファイル」 > 「保存」 を手動でクリックします。Spark バージョンの前に表示されるカーネル情報領域にノートブックを保存しましたメッセージが表示されます。 カーネルが失敗したことを示すメッセージが表示された場合は、ノートブックをカーネルに再接続するために「カーネル」 > 「再接続」をクリックします。 カーネルを再始動してもノートブックを保存できない場合は、「ファイル」 > 「次の形式でダウンロード」 > 「ノートブック (.ipynb)」をクリックしてノートブックをダウンロードし、変更を保存することができます。 その後、ダウンロードしたノートブック・ファイルに基づいて新しいノートブックを作成する必要があります。

ノートブック・カーネルに接続できません

ノートブックを実行しようとしたときに、Connecting to Kernelというメッセージが表示され、その後にConnection failed. Reconnectingというメッセージが表示され、最後に接続が失敗したというエラー・メッセージが表示された場合、ファイアウォールがノートブックの実行をブロックしていることが原因である可能性があります。

Watson Studio がファイアウォール保護下にインストールされている場合は、WebSocket 接続wss://dataplatform.cloud.ibm.comをファイアウォール設定に追加する必要があります。 ノートブックおよび RStudio を使用する場合は、この WebSocket 接続を有効にする必要があります。

ノートブックのオープンまたは編集時に「使用可能なリソースが不足しています」エラーが発生する

ノートブックを開いたり編集したりするときに以下のメッセージが表示される場合は、ノートブックに関連付けられている環境ランタイムにリソースの問題があります。

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

原因を見つけるには、 Watson Studioに影響する IBM Cloud インシデントの状況ページを確認してください。 さらに、 IBM Cloud サポート・ポータルでサポート Case をオープンすることもできます。

機械学習の問題

機械学習ツールを使用して作業しているときに、これらの問題のいくつかが発生することがあります。

リージョンの要件

Watson Machine Learning サービス・インスタンスをプロジェクトに関連付けることができるのは、 Watson Machine Learning サービス・インスタンスと Watson Studio インスタンスが同じリージョンにある場合のみです。

サービスをプロジェクトに関連付けるときにサービス・インスタンスを作成する場合のリンクへのアクセス

Watson Machine Learning サービスをプロジェクトに関連付けるときに、新規サービス・インスタンスを作成するオプションがあります。 新規サービスの作成を選択した場合、サービス・ページ上のリンクが機能しないことがあります。 サービスのご利用条件、API、および資料にアクセスするには、リンクを右クリックして新しいウィンドウで開きます。

Federated Learning 資産は、新規プロジェクト UI のすべての資産、検索結果、またはフィルター結果では検索できません

プロジェクトの 「すべての資産」 ビュー、検索結果、またはフィルター結果から統合学習資産を検索することはできません。

回避策: 統合学習アセットをクリックして、ツールを開きます。

デプロイメントの問題

  • 一定の期間 (無料プランでは 24 時間、有料プランでは 120 時間) にわたって非アクティブ (スコアなし) であったデプロイメントは、自動的にハイバネートされます。 新しいスコア要求が実行依頼されると、デプロイメントが再アクティブ化され、スコア要求が処理されます。 モデルのフレームワークに応じて、アクティブ化後の初回スコア要求で 1 秒から 60 秒の短い遅延が生じることを理解しておいてください。
  • SPSS Modeler などの一部のフレームワークでは、ハイバネーション後のデプロイ済みモデルに対する初回スコア要求が 504 エラーになることがあります。 このエラーが発生した場合は、要求を再度実行依頼してください。後続の要求は正常に完了するはずです。

マスクされたデータ資産のプレビューがデプロイメント・スペースでブロックされています **

データ資産のプレビューが失敗し、次のメッセージが表示される場合があります: This asset contains masked data and is not supported for preview in the Deployment Space

デプロイメント・スペースは現在、マスキング・データをサポートしていません。そのため、マスクされた資産のプレビューは、データ・リークを防止するためにブロックされています。

大規模なインライン・ペイロードを使用するバッチ・デプロイメント・ジョブが starting 状態または running 状態のままになる

インライン・バッチ・デプロイメントに対して大規模な非同期ペイロードを指定すると、ランタイム・マネージャー・プロセスがヒープ・メモリーを使い尽くす可能性があります。

以下の例では、92 MB のペイロードがインラインでバッチ・デプロイメントに渡された結果、ヒープがメモリー不足になりました。

Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
	at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
	at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
	at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
	at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
   ...

これにより、並行ジョブが starting または running 状態のままになる可能性があります。 starting 状態は、デプロイメントが削除され、新規デプロイメントが作成された場合にのみクリアできます。 running 状態は、デプロイメントを削除せずにクリアできます。

回避策として、バッチ・デプロイメントに提供される大規模なペイロードには、インラインではなくデータ参照を使用してください。

Watson Machine Learning の制限

AutoAI の既知の制限事項

  • 現時点では AutoAI エクスペリメントは 2 バイト文字セットをサポートしていません。 AutoAI は、ASCII 文字を使用した CSV ファイルのみをサポートしています。 ユーザーは、ファイル名またはコンテンツ内の非 ASCII 文字を変換し、この CSV 標準で定義されているように入力データを CSV として提供する必要があります。

  • Auto AI モデルをプログラムで操作するには、Python クライアントではなく REST API を使用してください。 AutoAI をサポートするために必要な Python クライアントの APIは、現時点では使用できません。

IBM Federated Learning でデータ・モジュールが見つかりません

IBM Federated Learning のデータ・ハンドラーが FL ライブラリーからデータ・モジュールを抽出しようとしましたが、見つかりません。 場合によっては以下のエラー・メッセージが表示されます。

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

この問題は、古い DataHandler を使用したことが原因である可能性があります。 最新の仕様に準拠するように DataHandler を確認して更新してください。 以下に、最新の MNIST データ・ハンドラー へのリンクを示します。または、サンプル・バージョンが最新のものであることを確認してください。

conda yaml ファイル内の環境変数の設定がデプロイメントで機能しない

conda yaml ファイルでの環境変数の設定は、デプロイメントでは機能しません。 つまり、 Watson Machine Learningで資産をデプロイするときに、 LD_LIBRARY_PATHなどの既存の環境変数をオーバーライドすることはできません。

回避策として、 Python 関数を使用している場合は、デフォルト・パラメーターを設定することを検討してください。 詳しくは、 Python 関数のデプロイを参照してください。

Cognos Dashboard Embedded の問題

Cognos Dashboard Embedded を使用している場合には以下の問題が発生することがあります。

重複する列名を含む CSV ファイルはサポートされていません

Cognos Dashboard Embedded は、重複する列名を含む CSV ファイルをサポートしていません。 重複は大/小文字を区別しません。 例えば、 BRANCH_NAMEbranch_name、および Branch_Name は、重複する列名と見なされます。

Cognos ダッシュボードでは、ユーザー名とパスワードの資格情報を使用して作成されたデータ接続のみを使用できます。

Cognos Dashboard Embedded では、ダッシュボードにデータ・ソースとして追加されるデータベース接続および接続されたデータ資産に、ユーザー名とパスワードの資格情報が含まれている必要があります。

これらの資格情報が接続に指定されておらず、代わりにトークンまたは API キーが使用されている場合、 Cognos Dashboard Embedded はその接続または接続されているデータ資産をデータ・ソースとして使用できません。

精製されたデータ資産について正しくないデータ・タイプが表示される

CSV ファイルをインポートした後、 「データ資産の概要」ページでインポートしたファイルをクリックすると、一部の列のタイプが正しく表示されない場合があります。 例えば、企業の収益を含む収益という列がある企業レポートのデータ・セットは、より論理的な数値指向のデータ・タイプではなく、タイプストリングとして表示される可能性があります。

CSV ファイルでサポートされない特殊文字

ソース CSV ファイル名には非英数字を使用することができます。 ただし、CSV ファイル名に特殊文字 / : & < . \ "を含めることはできません。 ファイル名にこれらの文字が含まれている場合は、テーブル名から削除されます。

重要: ソース CSV ファイル内のテーブル列名に、サポートされない特殊文字を含めることはできません。 データ・モジュール内の名前はソース・ファイル内の列の名前と一致する必要があるため、これらの文字を削除することはできません。 この場合、列名の特殊文字を削除して、ダッシュボードでデータを使用できるようにします。

CSV ファイルの文字列値は 128 文字に制限されている

ソース CSV ファイル内の列のストリング値の長さは 128 文字以内でなければなりません。 CSV ファイルにそれより長い値を持つストリング列がある場合、エラー・メッセージが表示されます。

CSV ファイルの日付形式の制限事項

視覚化で使用される CSV ファイルには、日付形式の制限事項があります。 詳しくは、Resolving problems when using data from CSV files in Cognos Dashboard Embedded を参照してください。

視覚化内のデータ・テーブルを置換できません

ダッシュボードに視覚化を追加する場合、以前に別のデータ・テーブルからデータ・フィールドを追加した (その後で削除した) 場合は、データ・テーブルを視覚化に追加することはできません。 この制限は、 Db2、 CSV テーブル、およびその他のデータ・ソースに適用されます。

サポートされない Cognos Analytics 機能

IBM Cognos Analytics の以下の機能は、ダッシュボードではサポートされていません。

  • データのグループ化
  • カスタム・カラー・パレット
  • カスタム視覚化
  • アシスタント
  • 予測
  • 視覚化での洞察
  • Jupyter notebook の視覚化
  • 高度なデータ分析

Watson OpenScale の問題

Watson OpenScaleで以下の問題が発生する場合があります。

ドリフト構成が開始するが終了しない

ドリフト構成が開始しますがいつまでも終了せず、スピナー・アイコンが表示され続けます。 スピナーが 10 分以上実行されている場合、システムが不整合の状態になっている可能性があります。 この動作の回避策として、まずドリフト構成を編集します。 その後、保存します。 システムがその状態から抜け出し、構成が完了する場合があります。 ドリフトの再構成によって状況が改善されない場合は、IBM サポートにお問い合わせください。

SPSS Modeler の問題

SPSS Modelerで作業しているときに、これらの問題のいくつかが発生することがあります。

SPSS Modeler ランタイムの制約事項

ペルー、エクアドル、コロンビア、およびベネズエラでは、Watson Studio に SPSS 機能が含まれていません。

マイクロ秒単位で測定されたタイム・スタンプ・データ

マイクロ秒単位で測定されたタイム・スタンプ・データがある場合は、フロー内でより正確なデータを使用できます。 ただし、以下の制限内でのみデータを使用できます。

  • マイクロ秒単位で測定されたデータは、SQL プッシュバックをサポートするコネクターからのみインポートできます。 SQL プッシュバックをサポートするコネクターについて詳しくは、 SPSS Modelerを参照してください。
  • これらのコネクターからデータをインポートする各データ・アセット・ノードを手動で保存する必要があります。 「フロー・プロパティー」で新規オプションを有効にした後、これらのノードを保存します。 新規オプションの有効化については、 フローのプロパティーの設定を参照してください。

データ・アセット・ノードを保存するには、以下の手順を実行します。

  1. ノードをダブルクリックすると、そのノードのプロパティーが表示されます。
  2. 「保存」をクリックしてから、プロパティーを閉じます。

マージ・ノードと Unicode 文字

レコード結合ノードは、以下の非常に類似した日本語文字を同じ文字として扱います。
日本語文字

接続の問題

接続で作業しているときに、この問題が発生する可能性があります。

Cloudera Impala 接続が LDAP 認証で機能しない

Cloudera Impala データ・ソースへの接続を作成し、 Cloudera Impala サーバーが LDAP 認証用にセットアップされている場合、 Cloud Pak for Data as a Service のユーザー名とパスワードの認証方式は機能しません。

回避策: Impala サーバーで 「Enable LDAP Authentication」 オプションを無効にします。 Cloudera 資料の「 LDAP 認証の構成 」を参照してください。

Watson Pipelines の既知の問題

この問題は、 Watson Pipelinesに関するものです。

2 レベルを超えるループをネストすると、パイプライン・エラーが発生する可能性がある

2 レベルを超えるループをネストすると、パイプラインの実行時にエラー (実行の取得エラーなど) が発生する可能性があります。 ログを確認すると、 text in text not resolved: neither pipeline_input nor node_outputなどのエラーが表示される場合があります。 Bash スクリプトからの出力でループしている場合、ログに PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output)のようなエラーがリストされることがあります。 この問題を解決するには、ネスト・ループが 2 レベルを超えないようにしてください。

アセット・ブラウザーは、アセット・タイプの合計数のカウントを常に反映しているわけではありません

コピー・ノードのソースの選択など、アセット・ブラウザーからアセットを選択すると、一部のアセットにそのアセット・タイプの総数がリストされますが、ノートブックにはリストされません。 これは現在の制限事項です。

パイプライン・バージョンを削除できません

現在、不要になった保存済みのバージョンのパイプラインを削除することはできません。

一部の条件下で AutoAI エクスペリメントの削除が失敗する

AutoAI エクスペリメントの削除 ノードを使用してプロジェクト UI から作成された AutoAI エクスペリメントを削除しても、AutoAI 資産は削除されません。 ただし、フローの残りの部分は正常に完了できます。

キャッシュは有効になっているように見えますが、有効になっていません

「資産のコピー」 パイプライン・ノードの 「コピー・モード」Overwriteに設定されている場合、キャッシュは使用可能として表示されますが、使用不可のままです。

Watson Pipelines の制限

これらの制限は、 Watson Pipelinesに適用されます。

単一パイプラインの制限

これらの制限は、構成に関係なく、単一のパイプラインに適用されます。

  • 単一のパイプラインに 120 を超える標準ノードを含めることはできません
  • ループのあるパイプラインには、すべての反復にわたって 600 を超えるノードを含めることはできません (例えば、60 個の反復-それぞれ 10 個のノード)。

構成サイズによる制限

小規模の構成

SMALL 構成は、600 個の標準ノード (すべてのアクティブ・パイプラインにわたって) をサポートするか、ループで実行される 300 個のノードをサポートします。 次に例を示します。

  • 20 個のノードを持つ 30 個の標準パイプラインが並行して実行される = 600 個の標準ノード
  • 反復が 10 個、反復ごとに 10 個のノードを持つループを含む 3 つのパイプライン = ループ内の 300 個のノード

中規模の構成

MEDIUM 構成では、1200 個の標準ノード (すべてのアクティブ・パイプラインにわたる) または 600 個のノードがループで実行されます。 次に例を示します。

  • 40 個のノードを持つ 30 個の標準パイプラインが並行して実行される = 1200 個の標準ノード
  • 各反復に 10 個の反復と 10 個のノードを持つループを含む 6 個のパイプライン = ループ内の 600 個のノード

大規模の構成

LARGE 構成は、4800 標準ノード (すべてのアクティブ・パイプラインにわたる) またはループで実行される 2400 ノードをサポートします。 次に例を示します。

  • 60 個のノードを持つ 80 個の標準パイプラインが並列で実行 = 4800 個の標準ノード
  • 反復が 10 回、反復ごとに 10 個のノードを持つループを含む 24 個のパイプライン = ループ内の 2400 個のノード

入出力サイズの制限

入力値と出力値 (パイプライン・パラメーター、ユーザー変数、および汎用ノードの入力と出力を含む) は、10 KB を超えるデータにすることはできません。

バッチ入力がデータ資産に制限される

現時点では、バッチ・デプロイメント・ジョブの入力はデータ資産に制限されています。 これは、入力として JSON 入力または複数のファイルを必要とする特定のタイプのデプロイメントがサポートされないことを意味します。 例えば、入力として複数のファイルを必要とする SPSS モデルおよび Decision Optimization ソリューションはサポートされていません。

Cloud Object Storage の問題

これらの問題は、 Cloud Object Storageの操作に適用されます。

Key Protect が有効な場合の Cloud Object Storage の問題

Key Protect を Cloud Object Storage と併用することは、 Watson Machine Learning 資産での作業ではサポートされていません。 Key Protectを使用している場合、 Watson Studioで資産を操作するときに以下の問題が発生することがあります。

  • 以下の Watson Machine Learning 資産のトレーニングまたは保存が失敗する可能性があります。
    • Auto AI
    • 統合学習
    • Watson Pipelines
  • SPSS モデルまたはノートブック・モデルをプロジェクトに保存できない場合があります。

watsonx.governance の問題

プロンプト・テンプレートのデプロイメント・データをファセット・シートに表示する遅延

プロンプト・テンプレート用にデプロイメントが作成された場合、デプロイメントのファクトは即時にファクト・シートに追加されません。 ファクトをファクト・シートに追加するには、まずデプロイメントを評価するか、ライフサイクル・トラッキング・ページを表示する必要があります。

ファクト・シート内の添付ファイル・リンクが重複しています

ファクト・シートは、ライフサイクルのすべてのフェーズにわたって、アセットのすべてのイベントを追跡します。 添付ファイルが各ステージに表示され、ファセット・シートに冗長性が作成されます。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細