既知の問題と制限
Cloud Pak for Data as a Service には、以下の制限事項と既知の問題が適用されます。
- リージョンの制限
- Watson Knowledge Catalog
- マスキング・フロー
- Data Refinery
- Watson Query
- Watson Studio
- Watson Machine Learning
- Cognos Dashboard Embedded
- Watson OpenScale
- SPSS Modeler
- Watson Pipelines
Watson Knowledge Catalog の問題のリスト
- データ・ポリシー・サービス (DPS) カテゴリー・キャッシュの同期化
- マスクされたデータは、データ可視化ではサポートされません
- 一部のプロジェクト・ツールでデータがマスクされない
- 事前定義ガバナンス成果物が使用できない可能性があります
- 小文字の E メール・アドレスでコラボレーターを追加する
- Object Storage 接続の制限
- 複数の同時接続操作が失敗する場合がある
- カタログ作成後にポリシーを有効にできません
- 評価が失敗した場合に資産がブロックされる
- 「デフォルト設定」ページからメタデータ・エンリッチ資産に戻るのは、ブラウザーの「戻る」ボタンのみです
- メタデータ・エンリッチ結果のデータ・クラス・フィルターのみで大/小文字が区別されます
- メタデータ・エンリッチ結果のフィルター・オプションがすぐに更新されないことがあります
- 資産のエンリッチ詳細に、最新のエンリッチ実行で適用された設定が反映されない場合があります
- メタデータ・エンリッチ資産内の個々のページに直接アクセスできません
- 列のエンリッチ結果に割り当てられたデータ・クラスの不完全な詳細
- 場合によっては、UI でメタデータ・エンリッチ・ジョブの実行の完全なログが表示されないことがあります。
- エンリッチ結果をフィルタリングするとスキーマ情報が欠落する可能性がある
- メタデータ・エンリッチ資産の「資産」タブでの検索に関する問題
マスキング・フローの問題のリスト
Data Refinery の問題のリスト
Watson Query の問題のリスト
Watson Studio の問題のリスト
- 統合学習資産は、新規プロジェクト UI のすべての資産、検索結果、またはフィルター結果では検索できません
- ノートブックを複製しても、新規プロジェクト UI に固有の名前が作成されません
- 古いアカウントで資産を作成できません
- ログイン時のエラー
- Watson Studio の起動時に 500 内部サーバー・エラーを受け取りました
- 一部の Tensor ライブラリーの手動インストールがサポートされていない
- コード・セル実行後のノートブック・カーネルへの接続に予想以上の時間がかかる
- 事前定義の sqlContext オブジェクトを複数のノートブックで使用するとエラーが発生する
- 接続失敗メッセージ
- ノートブック・セクションへのハイパーリンクがプレビュー・モードで機能しません
- ノートブック・カーネルに接続できません
- ノートブックのオープンまたは編集時の ERROR_RESOURCES_UNAVAILABLE
Watson Machine Learning の問題のリスト
Cognos Dashboard Embedded の問題のリスト
Watson OpenScale の問題のリスト
SPSS Modeler の問題のリスト
- 実行中のフローを停止しようとしたときにエラーが発生しました
- インポートしたデータ資産エクスポート・ノードの実行が失敗することがある
- 表メタデータの変更時にデータ・プレビューが失敗することがある
- 拡張の出力ノードを実行した後に出力を表示できない
- COS 接続から Excel データをプレビューできません
- 数値が文字列として解釈される
- インポート・ノードを含むスーパーノード
- SAV ファイルへのエクスポート
- Watson Machine Learning Server でのフローの実行
- インポート・ノードのマイグレーション
- テキスト分析設定が保存されない
- レコード結合ノードの Unicode 文字
Watson Knowledge Catalog
Watson Knowledge Catalog を使用している場合、カタログの使用時に、以下の既知の問題や制限が発生することがあります。
データ・ポリシー・サービス (DPS) カテゴリー・キャッシュの同期化
パフォーマンス上の目的で、 データ・ポリシー・サービス (DPS) は、グロッサリー・カテゴリーのコピーをキャッシュに保持します。 カテゴリーが作成、更新、または削除されると、グロッサリー・サービスは RabbitMQ イベントをパブリッシュして、これらの変更を反映します。 DPS はこれらのイベントを listen し、キャッシュを更新します。 ただし、場合によっては、 RabbitMQ サービスがダウンしたりビジー状態になったりすると、メッセージが失われることがあります。 DPS には、キャッシュを更新するための REST API ユーティリティーが用意されています。
カテゴリーが変更されていないダウン時間中に以下の REST API ユーティリティーを実行することで、実行中の予期しない適用結果を回避し、不正確なキャッシュ更新を回避することができます。
curl -v -k -X GET --header "Content-Type: application/json"
--header "Accept: application/json"
--header "Authorization: Bearer ${token}"
"${uri}/v3/enforcement/governed_items/sync/category"
この REST API は、 Watson Knowledge Catalog サービスで使用できます。
マスクされたデータは、データ可視化ではサポートされません
マスクされたデータは、データ視覚化ではサポートされません。 プロジェクト内のデータ資産の 「視覚化」 タブでグラフを生成しているときに、マスクされたデータを処理しようとすると、 Bad Request: Failed to retrieve data from server. Masked data is not supported
というエラー・メッセージを受け取ります。
一部のプロジェクト・ツールでデータがマスクされない
マスクされた列が含まれる接続済みデータ資産をカタログからプロジェクトに追加すると、データを表示したり、Data Refinery ツールでデータを精製したりする場合に、その列はマスクされたままになります。 ただし、プロジェクト内の他のツールでは、接続を介してデータにアクセスするときにマスキングを保持しません。 例えば、ノートブック、 DataStage フロー、ダッシュボード、またはその他のプロジェクト・ツールで接続データをロードする場合は、直接接続を介してデータにアクセスし、マスキングをバイパスします。
事前定義ガバナンス成果物が使用できない可能性があります
事前定義された分類またはデータ・クラスが表示されない場合は、以下の API 呼び出しを使用してテナントを再初期化します。
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
小文字の E メール・アドレスでコラボレーターを追加する
コラボレーターをカタログに追加する場合は、E メール・アドレスをすべての小文字で入力してください。 大/小文字混合の E メール・アドレスはサポートされません。
Object Storage 接続の制限
Cloud Object Storage (S3 API) 接続または Cloudant 接続を表示すると、フォルダー自体が子資産としてリストされます。
複数の同時接続操作が失敗する場合がある
複数のユーザーが同時に接続操作を実行している場合に、エラーが発生することがあります。 エラー・メッセージは異なる場合があります。
カタログ作成後にデータ保護ルールの適用を有効にできません
カタログの作成後に、データ保護ルールの適用を有効にすることはできません。 カタログ内の資産にデータ保護ルールを適用するには、カタログ作成時に適用を有効にする必要があります。
評価が失敗した場合に資産がブロックされる
ポリシーが適用されているカタログ内のデータ資産には、以下の制約事項が適用されます。ヘッダーを持つファイル・ベースのデータ・資産では、列名に重複する列名、ピリオド (.)、または単一引用符 (') を使用できません。
評価が失敗すると、資産所有者を除くすべてのユーザーに対して資産がブロックされます。 その他のすべてのユーザーには、評価が失敗して資産がブロックされているためにデータ資産を表示できないというエラー・メッセージが表示されます。
メタデータ・エンリッチ結果のデータ・クラス・フィルターのみで大/小文字が区別されます
「列」タブでメタデータ・エンリッチ結果をフィルタリングする場合、大/小文字が区別されるのは データ・クラスエントリーのみです。 ビジネス用語、 スキーマ、および 資産フィルターの項目は、値の実際の大/小文字に関係なく、すべて小文字です。
メタデータ・エンリッチ結果のフィルター・オプションがすぐに更新されないことがあります
アセトを追加したり、新しいデータ・クラスまたはビジネス用語を割り当てたり、ビジネス用語を削除しても、それぞれのフィルターはすぐには更新されません。 回避策として、ブラウザーをリフレッシュして、更新されたフィルター・リストを確認してください。
資産のエンリッチ詳細に、最新のエンリッチ実行で適用された設定が反映されない場合があります
少なくとも 1 回実行されたメタデータ・エンリッチのエンリッチ・オプションを編集すると、資産の詳細には、最新のエンリッチ実行で適用されたオプションではなく、更新されたオプションが表示される場合があります。
メタデータ・エンリッチ資産内の個々のページに直接アクセスできません
メタデータ・エンリッチ資産内の資産または列の数が複数ページにわたる場合、特定のページに直接移動することはできません。 ページ番号ドロップダウン・リストは無効になっています。 代わりに、 「次のページ」ボタンと「前のページ」ボタンを使用してください。
列のエンリッチ結果に割り当てられたデータ・クラスの不完全な詳細
メタデータ・エンリッチ結果の列詳細の「ガバナンス」タブで、割り当てられたデータ・クラスをクリックすると、データ・クラス詳細のプレビューが表示されます。 ただし、詳細は不完全です。
場合によっては、UI でメタデータ・エンリッチ・ジョブの実行の完全なログが表示されないことがあります。
メタデータ・エンリッチ実行でのエラーのリストが非常に長い場合は、ジョブ・ログの一部のみが UI に表示される可能性があります。
回避策: ログ全体をダウンロードし、外部エディターで分析します。
エンリッチ結果をフィルタリングするときにスキーマ情報が欠落している可能性がある
エンリッチ結果の資産または列をソース情報でフィルタリングすると、スキーマ情報が使用できない場合があります。
回避策: エンリッチ・ジョブを再実行し、 「ソース」 フィルターを再度適用します。
メタデータ・エンリッチ資産の「資産」タブでの検索に関する問題
メタデータ・エンリッチ資産の 「資産」 タブで資産を検索しても、結果が返されない場合があります。 以下の制限を考慮してください。
- 検索では大/小文字を区別します
- 結果には、完全一致検索句に一致するレコード、またはその句で始まるレコードのみが含まれます。
Amazon Redshift データ・ソースからのデータ資産の時間タイプの列に対してルールを実行すると、適切な結果が返されない
Amazon Redshift データ・ソースからのデータ資産の場合、タイム・スタンプ・タイプの列がインポートされます。 そのような列に時間固有のデータ品質ルールを適用することはできません。
マスキング・フロー
マスキング・フローを使用する場合、データを私用化するときに、以下の既知の問題および制約事項が発生する可能性があります。
マスク・フロー・ジョブが失敗する可能性があります
マスキング・フロー・ジョブ中に、Spark はすべてのデータ・ソースをメモリーに読み込もうとする可能性があります。 ジョブをサポートするための十分なメモリーがない場合、エラーが発生する可能性があります。 デプロイされた最大の Spark 処理ノードに収まる最大データ・ボリュームは、約 12GBsです。
Data Refinery
Data Refinery を使用している場合、データを精製する際に、以下の既知の問題や制限が発生することがあります。
Data Refinery で接続済みデータ資産の個人資格情報がサポートされない
個人の資格情報を使用して接続済みデータ資産を作成する場合、他のユーザーは、Data Refinery で接続済みデータ資産を使用するために、以下の回避策を使用する必要があります。
回避策:
- 「プロジェクト」ページに移動し、接続済みデータ資産のリンクをクリックしてプレビューを開きます。
- 資格情報を入力します。
- Data Refinery を開き、ソースまたはターゲットに対して認証された接続済みデータ資産を使用します。
新規プロジェクト UI で Data Refinery フローのジョブを表示できません
新規プロジェクト UI で作業している場合、 Data Refinery フローのオプション・メニューからジョブを表示するオプションはありません。
回避策: Data Refinery フローでジョブを表示するには、 Data Refinery フローを開き、 「ジョブ」 アイコン をクリックして、 「保存して表示」 ジョブを選択します。 「ジョブ」タブで、プロジェクト内のすべてのジョブのリストを表示できます。
Watson Studio の問題
Watson Studio の使用開始および使用時に以下の問題が発生することがあります。
Federated Learning 資産は、新規プロジェクト UI のすべての資産、検索結果、またはフィルター結果では検索できません
新規プロジェクト UI で作業している場合、 「すべての資産」 ビュー、検索結果、またはプロジェクトのフィルター結果から統合学習資産を検索することはできません。
回避策: Federated Learning 資産をクリックしてツールを開くか、レガシー・プロジェクトに戻して、完全に統合されたバージョンの Federated Learning をプロジェクトで使用し続けます。
ノートブックを複製しても、新規プロジェクト UI に固有の名前が作成されません
新規プロジェクト UI でノートブックを複製した場合、重複するノートブックは固有の名前で作成されません。
古いアカウントで資産を作成できません
2017 年 11 月より前にアクティブ化された Watson Studio のインスタンスで作業している場合は、ノートブックなどの運用資産を作成できない可能性があります。 「作成」ボタンがグレーのままで無効になっている場合は、サービス・カタログからアカウントに Watson Studio サービスを追加する必要があります。
Watson Studio の起動時に 500 内部サーバー・エラーを受け取りました
Watson Studio の起動時に HTTP 内部サーバー・エラー (500) を受け取ることはめったにありません。 これは、ブラウザーに保管されている Cookie の有効期限が切れたことが原因である可能性があります。 エラーの原因が失効した Cookie であることを確認するには、プライベート・ブラウズ・セッション (匿名) で、または別のブラウザーを使用して、 Watson Studio を起動してみてください。 新しいブラウザーで正常に起動できる場合は、Cookie の有効期限が切れたことがエラーの原因です。 以下の解決策を選択できます。
- ブラウザー・アプリケーションを完全に終了して、Cookie をリセットします。 ブラウザー・ウィンドウを閉じるだけではなく、アプリケーションを閉じて再始動する必要があります。 ブラウザー・アプリケーションを再始動し、Watson Studio を起動してセッション Cookie をリセットします。
- ブラウズ・データから IBM Cookie をクリアして、Watson Studioを起動します。 ブラウザーのブラウズ・データまたはセキュリティー・オプションを調べて、Cookie をクリアします。 すべての IBM Cookie をクリアすると、他の IBM アプリケーションに影響する可能性があることに注意してください。
これらの解決策のいずれかを実行しても 500 エラーが解決しない場合は、 Watson Studio に影響する IBM Cloud インシデントがないか 「状況」ページ を確認してください。 さらに、 IBM Cloud サポート・ポータルでサポート・ケースをオープンすることもできます。
ログイン時のエラー
Watson Studio にログインしようとすると、「予期しないエラーのため、Access Manager WebSEAL が要求を完了できませんでした」というエラー・メッセージが表示される場合があります。 ログインを再試行してください。 通常、2 回目のログイン操作は成功します。
一部の Tensor ライブラリーの手動インストールがサポートされていない
一部の Tensor Flow ライブラリーはプリインストールされていますが、ユーザーが追加の Tensor Flow ライブラリーをインストールしようとするとエラーになります。
コード・セル実行後のノートブック・カーネルへの接続に予想以上の時間がかかる
カーネルに再接続してコード・セルを即時に実行しようとした場合 (またはコード実行中にカーネルの再接続が発生した場合)、ノートブックはカーネルに再接続せず、コード・セルの出力は表示されません。 「カーネル」 > 「再接続」をクリックして、カーネルに手動で再接続する必要があります。 カーネルが準備できたら、コード・セルを再度実行できます。
事前定義の sqlContext オブジェクトを複数のノートブックで使用するとエラーが発生する
事前定義の sqlContext オブジェクトを複数のノートブックで使用すると、Apache Spark エラーが発生することがあります。 ノートブックごとに新しい sqlContext オブジェクトを作成してください。 このスタック・オーバーフローの説明を参照してください。
接続失敗メッセージ
カーネルが停止すると、ノートブックがそれ以降自動的に保存されなくなります。 保存するには、「ファイル」 > 「保存」 を手動でクリックします。Spark バージョンの前に表示されるカーネル情報領域にノートブックを保存しましたメッセージが表示されます。 カーネルが失敗したことを示すメッセージが表示された場合は、ノートブックをカーネルに再接続するために「カーネル」 > 「再接続」をクリックします。 カーネルを再始動してもノートブックを保存できない場合は、「ファイル」 > 「次の形式でダウンロード」 > 「ノートブック (.ipynb)」をクリックしてノートブックをダウンロードし、変更を保存することができます。 その後、ダウンロードしたノートブック・ファイルに基づいて新しいノートブックを作成する必要があります。
ノートブック・セクションへのハイパーリンクがプレビュー・モードで機能しませんません
例えば、ノートブックの上部の概要セクションからリンクしたセクションがノートブックに含まれていて、ノートブックが Firefox の表示専用モードで開かれた場合、それらのセクションへのリンクは機能しません。 ただし、編集モードでノートブックを開くと、これらのリンクは機能します。
ノートブック・カーネルに接続できません
ノートブックを実行しようとしたときに、Connecting to Kernel
というメッセージが表示され、その後にConnection failed. Reconnecting
というメッセージが表示され、最後に接続が失敗したというエラー・メッセージが表示された場合、ファイアウォールがノートブックの実行をブロックしていることが原因である可能性があります。
Watson Studio がファイアウォール保護下にインストールされている場合は、WebSocket 接続wss://dataplatform.cloud.ibm.com
をファイアウォール設定に追加する必要があります。 ノートブックおよび RStudio を使用する場合は、この WebSocket 接続を有効にする必要があります。
Watson Machine Learning の問題
Watson Machine Learning コンポーネント (モデル・ビルダーやフロー・エディターなど) で作業しているときに、以下の問題が発生する場合があります。
リージョンの要件
Watson Machine Learning サービス・インスタンスをプロジェクトに関連付けることができるのは、 Watson Machine Learning サービス・インスタンスと Watson Studio インスタンスが同じリージョンにある場合のみです。
フロー・エディター・ランタイムの制限
ペルー、エクアドル、コロンビア、およびベネズエラでは、Watson Studio に SPSS 機能が含まれていません。
デプロイメントの問題
- 一定の期間 (無料プランでは 24 時間、有料プランでは 120 時間) にわたって非アクティブ (スコアなし) であったデプロイメントは、自動的にハイバネートされます。 新しいスコア要求が実行依頼されると、デプロイメントが再アクティブ化され、スコア要求が処理されます。 モデルのフレームワークに応じて、アクティブ化後の初回スコア要求で 1 秒から 60 秒の短い遅延が生じることを理解しておいてください。
- SPSS Modeler などの一部のフレームワークでは、ハイバネーション後のデプロイ済みモデルに対する初回スコア要求が 504 エラーになることがあります。 このエラーが発生した場合は、要求を再度実行依頼してください。後続の要求は正常に完了するはずです。
AutoAI の既知の制限事項
現時点では AutoAI エクスペリメントは 2 バイト文字セットをサポートしていません。 AutoAI は、ASCII 文字を使用した CSV ファイルのみをサポートしています。 ユーザーは、ファイル名またはコンテンツ内の非 ASCII 文字を変換し、この CSV 標準で定義されているように入力データを CSV として提供する必要があります。
Auto AI モデルをプログラムで操作するには、Python クライアントではなく REST API を使用してください。 AutoAI をサポートするために必要な Python クライアントの APIは、現時点では使用できません。
IBM Federated Learning でデータ・モジュールが見つかりません
IBM Federated Learning のデータ・ハンドラーが FL ライブラリーからデータ・モジュールを抽出しようとしましたが、見つかりません。 場合によっては以下のエラー・メッセージが表示されます。
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
この問題は、古い DataHandler を使用したことが原因である可能性があります。 最新の仕様に準拠するように DataHandler を確認して更新してください。 ここに、最新の MNIST データ・ハンドラーへのリンクを示します。または、ギャラリーのサンプル・バージョンが最新のものであることを確認します。
マスクされたデータ資産のプレビューがデプロイメント・スペースでブロックされています **
データ資産のプレビューが失敗し、次のメッセージが表示される場合があります: This asset contains masked data and is not supported for preview in the Deployment Space
デプロイメント・スペースは現在、マスキング・データをサポートしていません。そのため、マスクされた資産のプレビューは、データ・リークを防止するためにブロックされています。
SPSS Modeler の問題
SPSS Modelerで作業しているときに、これらの問題のいくつかが発生することがあります。
実行中のフローを停止しようとしたときにエラーが発生します
SPSS Modeler フローの実行中に、プロジェクトの 「管理」タブの下の 「環境」ページからフローを停止しようとすると、エラーが発生することがあります。 SPSS Modeler ランタイムおよび CUH 使用を完全に停止するには、フローを開いているブラウザー・タブを閉じます。
インポートしたデータ資産エクスポート・ノードの実行が失敗することがある
SPSS Modeler ストリーム (.str ファイル) をインポートして新規フローを作成し、エクスポート・ノードをマイグレーションしてから、結果のデータ資産エクスポート・ノードを実行すると、実行が失敗する場合があります。 この問題を回避するには、ノードを再実行し、出力名を変更し、ノード・プロパティーのデータ・セットが既に存在する場合オプションを変更してから、ノードを再実行します。
表メタデータが変更された場合にデータ・プレビューが失敗することがあります
場合によっては、データ資産インポート・ノードを使用して接続からデータをインポートするときに、基礎となる表メタデータ (データ・モデル) が変更されていると、データ・プレビューでエラーが返されることがあります。 問題を解決するには、データ資産ノードを再作成してください。
拡張の出力ノードを実行した後に出力を表示できない
「ファイルへの出力」オプションを選択して拡張出力ノードを実行すると、結果の出力ファイルを「出力」パネルから開こうとしたときにエラーが返されます。
COS 接続から Excel データをプレビューできません
現在、COS 接続から .xls または .xlsx データをプレビューすることはできません。
数値が文字列として解釈される
精度が 32 以上かつスケールが 0 の数値は、文字列として解釈されます。 この動作を変更する必要がある場合は、置換ノードを使用して、to_real (@FIELD) 式を使用する代わりに、フィールドを実数にキャストすることができます。
インポート・ノードを含むスーパーノード
インポート・ノードを含むスーパーノードがフローに含まれている場合、 「スコアリング・ブランチ」オプションを指定してモデルを保存すると、入力スキーマが正しく設定されない可能性があります。 この問題を回避するには、保存する前にスーパーノードを展開してください。
SAV ファイルへのエクスポート
データ資産エクスポート・ノードを使用して SPSS Statistics SAV ファイル (.sav) にエクスポートすると、入力スキーマが出力スキーマと一致しない場合に、 「データ資産の置換」オプションが機能しません。 置換する既存のファイルのスキーマが一致している必要があります。
Watson Machine Learning Server でのフローの実行
Watson Machine Learning Server でフローを実行すると、以下の問題が発生する可能性があります。
- フローが接続を参照する場合、ローカル・マシン (接続を構成するため) とリモート Watson Machine Learning Server (フローを実行するため) の両方で接続にアクセスできる必要があります。
- フローに Text Analytics ノードが含まれている場合は、そのフローを Watson Machine Learning Server で実行できません。 フローをローカルで実行する必要があります。
- Watson Machine Learning Server 上で実行されるフローへのマイグレーションを必要とするストリーム・ファイル (.str) をインポートしないでください。
インポート・ノードのマイグレーション
SPSS Modeler デスクトップで作成され、サポートされないインポート・ノードが 1 つ以上含まれているフローにストリーム (.str) をインポートすると、インポート・ノードをデータ資産にマイグレーションするように求めるプロンプトが出されます。 このストリームに同じデータ・ファイルを使用する複数のインポート・ノードが含まれている場合は、マイグレーションの前にそのファイルをデータ資産としてプロジェクトに追加する必要があります。これは、マイグレーションで同じファイルを複数のインポート・ノードにアップロードできないためです。 データ資産をプロジェクトに追加したら、フローをもう一度開き、新しいデータ資産を使用してマイグレーションを続行します。
テキスト分析の設定が保存されない
テキスト分析ワークベンチを閉じた後、変更したフィルター設定またはカテゴリー作成設定は、ノードにそのまま保存されません。
マージ・ノードと Unicode 文字
マージ・ノードは、以下の非常に類似した日本語文字を同じ文字として扱います。
Watson Pipelines の既知の問題
この問題は、 Watson Pipelinesに関するものです。
2 レベルを超えるループをネストすると、パイプライン・エラーが発生する可能性がある
2 レベルを超えるループをネストすると、パイプラインの実行時にエラー (実行の取得エラーなど) が発生する可能性があります。 ログを確認すると、 text in text not resolved: neither pipeline_input nor node_output
などのエラーが表示される場合があります。 Bash スクリプトからの出力でループしている場合、ログに PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output)
のようなエラーがリストされることがあります。 この問題を解決するには、ネスト・ループが 2 レベルを超えないようにしてください。
アセット・ブラウザーは、アセット・タイプの合計数のカウントを常に反映しているわけではありません
コピー・ノードのソースの選択など、アセット・ブラウザーからアセットを選択すると、一部のアセットにそのアセット・タイプの総数がリストされますが、ノートブックにはリストされません。 これは現在の制限事項です。
パイプライン・バージョンを削除できません
現在、不要になった保存済みのバージョンのパイプラインを削除することはできません。
一部の条件下で AutoAI エクスペリメントの削除が失敗する
AutoAI エクスペリメントの削除 ノードを使用してプロジェクト UI から作成された AutoAI エクスペリメントを削除しても、AutoAI 資産は削除されません。 ただし、フローの残りの部分は正常に完了できます。
キャッシュは有効になっているように見えますが、有効になっていません
「資産のコピー」 パイプライン・ノードの 「コピー・モード」 が Overwrite
に設定されている場合、キャッシュは使用可能として表示されますが、使用不可のままです。
Watson Pipelines の制限
これらの制限は、 Watson Pipelinesに適用されます。
単一パイプラインの制限
これらの制限は、構成に関係なく、単一のパイプラインに適用されます。
- 単一のパイプラインに 120 を超える標準ノードを含めることはできません
- ループのあるパイプラインには、すべての反復にわたって 600 を超えるノードを含めることはできません (例えば、60 個の反復-それぞれ 10 個のノード)。
構成サイズによる制限
小規模の構成
SMALL 構成は、600 個の標準ノード (すべてのアクティブ・パイプラインにわたって) をサポートするか、ループで実行される 300 個のノードをサポートします。 次に例を示します。
- 20 個のノードを持つ 30 個の標準パイプラインが並行して実行される = 600 個の標準ノード
- 各反復に 30 個の反復と 10 個のノードを持つループを含む単一パイプライン = ループ内の 300 個のノード
中規模の構成
MEDIUM 構成では、1200 個の標準ノード (すべてのアクティブ・パイプラインにわたる) または 600 個のノードがループで実行されます。 次に例を示します。
- 40 個のノードを持つ 30 個の標準パイプラインが並行して実行される = 1200 個の標準ノード
- 各反復に 60 個の反復と 10 個のノードを持つループを含む単一パイプライン = ループ内の 600 個のノード
大規模の構成
LARGE 構成は、4800 標準ノード (すべてのアクティブ・パイプラインにわたる) またはループで実行される 2400 ノードをサポートします。 次に例を示します。
- 60 個のノードを持つ 80 個の標準パイプラインが並列で実行 = 4800 個の標準ノード
- 反復が 60 回、反復ごとに 10 個のノードを持つループを含む 4 つのパイプライン = ループ内の 2400 個のノード
入出力サイズの制限
入力値と出力値 (パイプライン・パラメーター、ユーザー変数、および汎用ノードの入力と出力を含む) は、10 KB を超えるデータにすることはできません。
バッチ入力がデータ資産に制限される
現時点では、バッチ・デプロイメント・ジョブの入力はデータ資産に制限されています。 これは、入力として JSON 入力または複数のファイルを必要とする特定のタイプのデプロイメントがサポートされないことを意味します。 例えば、入力として複数のファイルを必要とする SPSS モデルおよび Decision Optimization ソリューションはサポートされていません。