既知の問題と制限
Cloud Pak for Data as a Service には、以下の制限事項と既知の問題が適用されます。
- リージョンの制限
- IBM Knowledge Catalog
- マスキング・フロー
- Watson Query
- Watson Studio
- Data Refinery
- 視覚化
- Watson Machine Learning
- Watson OpenScale
- SPSS Modeler
- 接続
- オーケストレーション・パイプライン
- Cloud Object Storage の問題
IBM Knowledge Catalog の問題のリスト
マスキング・フローの問題のリスト
Watson Query の問題のリスト
ノートブックの問題のリスト
- ノートブックを複製しても、新規プロジェクト UI に固有の名前が作成されません
- 古いアカウントで資産を作成できません
- ログイン時のエラー
- Watson Studio の起動時に 500 内部サーバー・エラーを受け取りました
- Jupyter Notebook エディターでノートブックを HTML にエクスポートできない
- 一部の Tensor ライブラリーの手動インストールがサポートされていない
- コード・セル実行後のノートブック・カーネルへの接続に予想以上の時間がかかる
- 事前定義の sqlContext オブジェクトを複数のノートブックで使用するとエラーが発生する
- 接続失敗メッセージ
- ノートブック・セクションへのハイパーリンクがプレビュー・モードで機能しません
- ノートブック・カーネルに接続できません
- ノートブックを開いたり編集したりするときに「使用可能なリソースが不足しています」エラーが発生する
Data Refineryの制限リスト
ビジュアライゼーションの課題一覧
機械学習の問題のリスト
機械学習の制限のリスト
Watson OpenScale の問題のリスト
SPSS Modeler の問題のリスト
接続の問題のリスト
Cloud Object Storage の問題
- 機械学習の問題のリスト
- Key Protect を有効にして Cloud Object Storage を指定したプロジェクトで Watson Machine Learning を使用している資産でエラーが発生しました。
- Auto AI
- 統合学習
- パイプライン
- SPSS Modeler の問題のリスト
- Key Protect を有効にして Cloud Object Storage を指定すると、モデルをプロジェクトに保存できません。
- ノートブックの問題のリスト
- Key Protect を有効にして Cloud Object Storage を指定すると、モデルをプロジェクトに保存できません。
IBM Knowledge Catalog
IBM Knowledge Catalog を使用している場合、カタログを使用すると、これらの既知の問題や制限が発生する可能性があります。
接続アセットタイプが、削除後に永久に削除されない
アセットタイプ Connection
は、アセット削除設定がカタログ UI で Purge assets automatically upon removal に設定されていても、削除後すぐに削除されず、ゴミ箱に表示されます。
カタログ資産検索が特殊文字をサポートしない
検索キーワードに以下の特殊文字が含まれている場合、検索フィルターは最も正確な結果を返しません。
検索キーワード
. + - && || ! ( ) { } [ ] ^ " ~ * ? : \
回避策最も正確な結果を得るには、特殊文字の後にあるキーワードのみを検索します。 例えば、AUTO_DV1.SF_CUSTOMERの代わりに、SF_CUSTOMERを検索します。
データ保護ルールで行フィルタが適用されている場合、アセットをプレビューできない
アセットの列名にスペースが含まれており、行フィルタリングによるデータ保護ルールを適用している場合、アセットのプレビューができず、次のエラーが表示されます:
Unable to show preview
Preview failed to load. Try again or contact your system administrator.
Workaround: データ保護ルールでアセットの行フィルタを適用してプレビューするには、列名にスペースを指定しないでください。 たとえば、カラム名First_name
(First name
のかわりに)を使います。
マスクされたデータは、データ可視化ではサポートされません
マスクされたデータは、データ視覚化ではサポートされません。 プロジェクト内のデータ資産の 「視覚化」 タブでグラフを生成しているときに、マスクされたデータを処理しようとすると、 Bad Request: Failed to retrieve data from server. Masked data is not supported
というエラー・メッセージを受け取ります。
一部のプロジェクト・ツールでデータがマスクされない
マスクされた列が含まれる接続済みデータ資産をカタログからプロジェクトに追加すると、データを表示したり、Data Refinery ツールでデータを精製したりする場合に、その列はマスクされたままになります。 ただし、プロジェクト内の他のツールでは、接続を介してデータにアクセスするときにマスキングを保持しません。 例えば、ノートブック、 DataStage フロー、ダッシュボード、またはその他のプロジェクト・ツールで接続データをロードする場合は、直接接続を介してデータにアクセスし、マスキングをバイパスします。
事前定義ガバナンス成果物が使用できない可能性があります
事前定義された分類またはデータ・クラスが表示されない場合は、以下の API 呼び出しを使用してテナントを再初期化します。
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
小文字の E メール・アドレスでコラボレーターを追加する
コラボレーターをカタログに追加する場合は、E メール・アドレスをすべての小文字で入力してください。 大/小文字混合の E メール・アドレスはサポートされません。
Object Storage 接続の制限
Cloud Object Storage (S3 API) 接続または Cloudant 接続を表示すると、フォルダー自体が子資産としてリストされます。
複数の同時接続操作が失敗する場合がある
複数のユーザーが同時に接続操作を実行している場合に、エラーが発生することがあります。 エラー・メッセージは異なる場合があります。
カタログ作成後にデータ保護ルールの適用を有効にできません
カタログの作成後に、データ保護ルールの適用を有効にすることはできません。 カタログ内の資産にデータ保護ルールを適用するには、カタログ作成時に適用を有効にする必要があります。
評価が失敗した場合に資産がブロックされる
ポリシーが適用されているカタログ内のデータ資産には、以下の制約事項が適用されます。ヘッダーを持つファイル・ベースのデータ・資産では、列名に重複する列名、ピリオド (.)、または単一引用符 (') を使用できません。
評価が失敗すると、資産所有者を除くすべてのユーザーに対して資産がブロックされます。 その他のすべてのユーザーには、評価が失敗して資産がブロックされているためにデータ資産を表示できないというエラー・メッセージが表示されます。
メタデータ・エンリッチ結果のデータ・クラス・フィルターのみで大/小文字が区別されます
「列」タブでメタデータ・エンリッチ結果をフィルタリングする場合、大/小文字が区別されるのは データ・クラスエントリーのみです。 ビジネス用語、 スキーマ、および 資産フィルターの項目は、値の実際の大/小文字に関係なく、すべて小文字です。
資産のエンリッチ詳細に、最新のエンリッチ実行で適用された設定が反映されない場合があります
少なくとも 1 回実行されたメタデータ・エンリッチのエンリッチ・オプションを編集すると、資産の詳細には、最新のエンリッチ実行で適用されたオプションではなく、更新されたオプションが表示される場合があります。
メタデータ・エンリッチ資産内の個々のページに直接アクセスできません
メタデータ・エンリッチ資産内の資産または列の数が複数ページにわたる場合、特定のページに直接移動することはできません。 ページ番号ドロップダウン・リストは無効になっています。 代わりに、 「次のページ」ボタンと「前のページ」ボタンを使用してください。
場合によっては、UI でメタデータ・エンリッチ・ジョブの実行の完全なログが表示されないことがあります。
メタデータ・エンリッチ実行でのエラーのリストが非常に長い場合は、ジョブ・ログの一部のみが UI に表示される可能性があります。
回避策: ログ全体をダウンロードし、外部エディターで分析します。
エンリッチ結果をフィルタリングするときにスキーマ情報が欠落している可能性がある
エンリッチ結果の資産または列をソース情報でフィルタリングすると、スキーマ情報が使用できない場合があります。
回避策: エンリッチ・ジョブを再実行し、 「ソース」 フィルターを再度適用します。
メタデータ・エンリッチ資産の「資産」タブでの検索に関する問題
メタデータ・エンリッチ資産の 「資産」 タブで資産を検索しても、結果が返されない場合があります。 以下の制限を考慮してください。
- 検索では大/小文字を区別します
- 結果には、完全一致検索句に一致するレコード、またはその句で始まるレコードのみが含まれます。
3.0.0 より前のバージョンの Apache Hive へのメタデータ・エンリッチ出力の書き込み
メタデータ・エンリッチによって生成されたデータ品質出力を 3.0.0より前のソフトウェア・バージョンの Apache Hive データベースに書き込む場合は、 Apache Hive サーバーで以下の構成パラメーターを設定します。
set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true; # (not required for version 2)
set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true; # might not be available depending on the version
set hive.compactor.worker.threads=1;
詳しくは、 Hive Transactionsを参照してください。
エンリッチメント結果のビジネス用語フィルターに、割り当ての変更がすぐに反映されない場合がある
ビジネス用語の割り当てまたは割り当て解除を手動で行うと、ビジネス用語フィルターにこれらの変更がすぐに反映されない場合があります。
回避策: 更新アイコンをクリックしてページを更新してください。
SAP OData ソースのアセットの場合、メタデータのエンリッチメントの結果にテーブル タイプが表示されません
一般的に、メタデータ・エンリッチメントの結果は、エンリッチされたデータ資産ごとに、その資産がテーブルかビューかを示します。 この情報は、SAP ODataデータ・ソースからのデータ・アセットでは取得できないため、エンリッチメントの結果には表示されません。
マスキング・フロー
マスキング・フローを使用する場合、データを私用化するときに、以下の既知の問題および制約事項が発生する可能性があります。
マスク・フロー・ジョブが失敗する可能性があります
マスキング・フロー・ジョブ中に、Spark はすべてのデータ・ソースをメモリーに読み込もうとする可能性があります。 ジョブをサポートするための十分なメモリーがない場合、エラーが発生する可能性があります。 デプロイされた最大の Spark 処理ノードに収まる最大データ・ボリュームは、約 12GBsです。
ノートブックの問題
ノートブックの使用を開始するときに、これらの問題のいくつかが発生することがあります。
ノートブックを複製しても、新規プロジェクト UI に固有の名前が作成されません
新規プロジェクト UI でノートブックを複製した場合、重複するノートブックは固有の名前で作成されません。
古いアカウントで資産を作成できません
2017 年 11 月より前にアクティブ化された Watson Studio のインスタンスで作業している場合は、ノートブックなどの運用資産を作成できない可能性があります。 「作成」ボタンがグレーのままで無効になっている場合は、サービス・カタログからアカウントに Watson Studio サービスを追加する必要があります。
Watson Studio の起動時に 500 内部サーバー・エラーを受け取りました
Watson Studio の起動時に HTTP 内部サーバー・エラー (500) を受け取ることはめったにありません。 これは、ブラウザーに保管されている Cookie の有効期限が切れたことが原因である可能性があります。 エラーの原因が失効した Cookie であることを確認するには、プライベート・ブラウズ・セッション (匿名) で、または別のブラウザーを使用して、 Watson Studio を起動してみてください。 新しいブラウザーで正常に起動できる場合は、Cookie の有効期限が切れたことがエラーの原因です。 以下の解決策を選択できます。
- ブラウザー・アプリケーションを完全に終了して、Cookie をリセットします。 ブラウザー・ウィンドウを閉じるだけではなく、アプリケーションを閉じて再始動する必要があります。 ブラウザー・アプリケーションを再始動し、Watson Studio を起動してセッション Cookie をリセットします。
- ブラウズ・データから IBM Cookie をクリアして、Watson Studioを起動します。 ブラウザーのブラウズ・データまたはセキュリティー・オプションを調べて、Cookie をクリアします。 すべての IBM Cookie をクリアすると、他の IBM アプリケーションに影響する可能性があることに注意してください。
これらの解決策のいずれかを実行しても 500 エラーが解決しない場合は、 Watson Studio に影響する IBM Cloud インシデントがないか 「状況」ページ を確認してください。 さらに、 IBM Cloud サポート・ポータルでサポート・ケースをオープンすることもできます。
ログイン時のエラー
Watson Studio にログインしようとすると、「予期しないエラーのため、Access Manager WebSEAL が要求を完了できませんでした」というエラー・メッセージが表示される場合があります。 ログインを再試行してください。 通常、2 回目のログイン操作は成功します。
Jupyter Notebook エディターでノートブックを HTML にエクスポートできない
Watson Studio以外のツールで作成された Jupyter Notebook を操作しているときに、ノートブックを HTML にエクスポートできない場合があります。 この問題は、セル出力が公開されている場合に発生します。
回避策
Jupyter Notebook UI で、 「編集」 に移動し、 「ノートブック・メタデータの編集」をクリックします。
以下のメタデータを削除します。
"widgets": { "state": {}, "version": "1.1.2" }
「編集」 をクリックします。
ノートブックを保存します。
一部の Tensor ライブラリーの手動インストールがサポートされていない
一部の Tensor Flow ライブラリーはプリインストールされていますが、ユーザーが追加の Tensor Flow ライブラリーをインストールしようとするとエラーになります。
コード・セル実行後のノートブック・カーネルへの接続に予想以上の時間がかかる
カーネルに再接続してコード・セルを即時に実行しようとした場合 (またはコード実行中にカーネルの再接続が発生した場合)、ノートブックはカーネルに再接続せず、コード・セルの出力は表示されません。 「カーネル」 > 「再接続」をクリックして、カーネルに手動で再接続する必要があります。 カーネルが準備できたら、コード・セルを再度実行できます。
事前定義の sqlContext オブジェクトを複数のノートブックで使用するとエラーが発生する
事前定義の sqlContext オブジェクトを複数のノートブックで使用すると、Apache Spark エラーが発生することがあります。 ノートブックごとに新しい sqlContext オブジェクトを作成してください。 このスタック・オーバーフローの説明を参照してください。
接続失敗メッセージ
カーネルが停止すると、ノートブックがそれ以降自動的に保存されなくなります。 保存するには、「ファイル」 > 「保存」 を手動でクリックします。Spark バージョンの前に表示されるカーネル情報領域にノートブックを保存しましたメッセージが表示されます。 カーネルが失敗したことを示すメッセージが表示された場合は、ノートブックをカーネルに再接続するために「カーネル」 > 「再接続」をクリックします。 カーネルを再始動してもノートブックを保存できない場合は、「ファイル」 > 「次の形式でダウンロード」 > 「ノートブック (.ipynb)」をクリックしてノートブックをダウンロードし、変更を保存することができます。 その後、ダウンロードしたノートブック・ファイルに基づいて新しいノートブックを作成する必要があります。
ノートブック・セクションへのハイパーリンクがプレビュー・モードで機能しませんません
例えば、ノートブックの上部の概要セクションからリンクしたセクションがノートブックに含まれていて、ノートブックが Firefox の表示専用モードで開かれた場合、それらのセクションへのリンクは機能しません。 ただし、編集モードでノートブックを開くと、これらのリンクは機能します。
ノートブック・カーネルに接続できません
ノートブックを実行しようとしたときに、Connecting to Kernel
というメッセージが表示され、その後にConnection failed. Reconnecting
というメッセージが表示され、最後に接続が失敗したというエラー・メッセージが表示された場合、ファイアウォールがノートブックの実行をブロックしていることが原因である可能性があります。
Watson Studio がファイアウォール保護下にインストールされている場合は、WebSocket 接続wss://dataplatform.cloud.ibm.com
をファイアウォール設定に追加する必要があります。 ノートブックおよび RStudio を使用する場合は、この WebSocket 接続を有効にする必要があります。
Data Refinery制限
データ・カラムのヘッダーに特殊文字を含めることはできない
特殊文字を含むカラムヘッダーを持つデータは、Data Refineryジョブを失敗させ、Supplied values don't match positional vars to interpolate
というエラーを出すかもしれません。
回避策: 列見出しから特殊文字を削除してください。
ビジュアライゼーションの問題
プロジェクトのデータ アセットの [可視化] タブで作業していると、このような問題が発生することがあります。
DATE 型の列を持つ接続データ資産の列レベルのプロファイル情報には、行が表示されません
DATE 型の列を持つ接続されたデータ資産の列レベルのプロファイル情報において、データ クラス、フォーマット、または 型 タブで show rows をクリックしても、行が表示されません。
機械学習の問題
機械学習ツールを使用して作業しているときに、これらの問題のいくつかが発生することがあります。
リージョンの要件
Watson Machine Learning サービス・インスタンスをプロジェクトに関連付けることができるのは、 Watson Machine Learning サービス・インスタンスと Watson Studio インスタンスが同じリージョンにある場合のみです。
サービスをプロジェクトに関連付けるときにサービス・インスタンスを作成する場合のリンクへのアクセス
Watson Machine Learning サービスをプロジェクトに関連付けるときに、新規サービス・インスタンスを作成するオプションがあります。 新規サービスの作成を選択した場合、サービス・ページ上のリンクが機能しないことがあります。 サービスのご利用条件、API、および資料にアクセスするには、リンクを右クリックして新しいウィンドウで開きます。
Federated Learning 資産は、新規プロジェクト UI のすべての資産、検索結果、またはフィルター結果では検索できません
プロジェクトの 「すべての資産」 ビュー、検索結果、またはフィルター結果から統合学習資産を検索することはできません。
回避策: 統合学習アセットをクリックして、ツールを開きます。
デプロイメントの問題
- 一定の期間 (無料プランでは 24 時間、有料プランでは 120 時間) にわたって非アクティブ (スコアなし) であったデプロイメントは、自動的にハイバネートされます。 新しいスコア要求が実行依頼されると、デプロイメントが再アクティブ化され、スコア要求が処理されます。 モデルのフレームワークに応じて、アクティブ化後の初回スコア要求で 1 秒から 60 秒の短い遅延が生じることを理解しておいてください。
- SPSS Modeler などの一部のフレームワークでは、ハイバネーション後のデプロイ済みモデルに対する初回スコア要求が 504 エラーになることがあります。 このエラーが発生した場合は、要求を再度実行依頼してください。後続の要求は正常に完了するはずです。
マスクされたデータ資産のプレビューがデプロイメント・スペースでブロックされています **
データ資産のプレビューが失敗し、次のメッセージが表示される場合があります: This asset contains masked data and is not supported for preview in the Deployment Space
デプロイメント・スペースは現在、マスキング・データをサポートしていません。そのため、マスクされた資産のプレビューは、データ・リークを防止するためにブロックされています。
大規模なインライン・ペイロードを使用するバッチ・デプロイメント・ジョブが starting
状態または running
状態のままになる
インライン・バッチ・デプロイメントに対して大規模な非同期ペイロードを指定すると、ランタイム・マネージャー・プロセスがヒープ・メモリーを使い尽くす可能性があります。
以下の例では、92 MB のペイロードがインラインでバッチ・デプロイメントに渡された結果、ヒープがメモリー不足になりました。
Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
...
これにより、並行ジョブが starting
または running
状態のままになる可能性があります。 starting
状態は、デプロイメントが削除され、新規デプロイメントが作成された場合にのみクリアできます。 running
状態は、デプロイメントを削除せずにクリアできます。
回避策として、バッチ・デプロイメントに提供される大規模なペイロードには、インラインではなくデータ参照を使用してください。
Watson Machine Learning の制限
AutoAI の既知の制限事項
現時点では AutoAI エクスペリメントは 2 バイト文字セットをサポートしていません。 AutoAI は、ASCII 文字を使用した CSV ファイルのみをサポートしています。 ユーザーは、ファイル名またはコンテンツ内の非 ASCII 文字を変換し、この CSV 標準で定義されているように入力データを CSV として提供する必要があります。
Auto AI モデルをプログラムで操作するには、Python クライアントではなく REST API を使用してください。 AutoAI をサポートするために必要な Python クライアントの APIは、現時点では使用できません。
IBM Federated Learning でデータ・モジュールが見つかりません
IBM Federated Learning のデータ・ハンドラーが FL ライブラリーからデータ・モジュールを抽出しようとしましたが、見つかりません。 場合によっては以下のエラー・メッセージが表示されます。
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
この問題は、古い DataHandler を使用したことが原因である可能性があります。 最新の仕様に準拠するように DataHandler を確認して更新してください。 ここに最新のMNISTデータハンドラへのリンクがあります。
conda yaml ファイル内の環境変数の設定がデプロイメントで機能しない
conda yaml ファイルでの環境変数の設定は、デプロイメントでは機能しません。 つまり、 Watson Machine Learningで資産をデプロイするときに、 LD_LIBRARY_PATH
などの既存の環境変数をオーバーライドすることはできません。
回避策として、 Python 関数を使用している場合は、デフォルト・パラメーターを設定することを検討してください。 詳しくは、 Python 関数のデプロイを参照してください。
Watson OpenScale の問題
Watson OpenScaleで以下の問題が発生する場合があります。
ドリフト構成が開始するが終了しない
ドリフト構成が開始しますがいつまでも終了せず、スピナー・アイコンが表示され続けます。 スピナーが 10 分以上実行されている場合、システムが不整合の状態になっている可能性があります。 この動作の回避策として、まずドリフト構成を編集します。 その後、保存します。 システムがその状態から抜け出し、構成が完了する場合があります。 ドリフトの再構成によって状況が改善されない場合は、IBM サポートにお問い合わせください。
SPSS Modeler の問題
SPSS Modelerで作業しているときに、これらの問題のいくつかが発生することがあります。
SPSS Modeler ランタイムの制約事項
ペルー、エクアドル、コロンビア、およびベネズエラでは、Watson Studio に SPSS 機能が含まれていません。
マイクロ秒単位で測定されたタイム・スタンプ・データ
マイクロ秒単位で測定されたタイム・スタンプ・データがある場合は、フロー内でより正確なデータを使用できます。 ただし、マイクロ秒単位で測定されたデータは、SQL プッシュバックをサポートするコネクタからのみインポートできます。 SQL プッシュバックをサポートするコネクターについて詳しくは、 SPSS Modelerを参照してください。
マージ・ノードと Unicode 文字
Mergeノードは、以下のよく似た日本語の文字を同じ文字として扱います。
接続の問題
接続で作業しているときに、この問題が発生する可能性があります。
Apache Impala 接続が LDAP 認証で機能しない
Apache Impala データ ソースへの接続を作成し、Apache Impala サーバーが LDAP 認証用に設定されている場合、Cloud Pak for Data as a Service のユーザー名とパスワードによる認証方法は機能しません。
回避策: Impala サーバーで 「Enable LDAP Authentication」 オプションを無効にします。 Cloudera ドキュメントの LDAP 認証の設定 を参照してください。
オーケストレーション・パイプラインの既知の問題
この問題は、オーケストレーション・パイプラインに関連しています。
アセット・ブラウザーは、アセット・タイプの合計数のカウントを常に反映しているわけではありません
コピー・ノードのソースの選択など、アセット・ブラウザーからアセットを選択すると、一部のアセットにそのアセット・タイプの総数がリストされますが、ノートブックにはリストされません。 これは現在の制限事項です。
パイプライン・バージョンを削除できません
現在、不要になった保存済みのバージョンのパイプラインを削除することはできません。 パイプラインが削除されると、すべてのバージョンが削除されます。
一部の条件下で AutoAI エクスペリメントの削除が失敗する
AutoAI エクスペリメントの削除 ノードを使用してプロジェクト UI から作成された AutoAI エクスペリメントを削除しても、AutoAI 資産は削除されません。 ただし、フローの残りの部分は正常に完了できます。
キャッシュは有効になっているように見えますが、有効になっていません
「資産のコピー」 パイプライン・ノードの 「コピー・モード」 が Overwrite
に設定されている場合、キャッシュは使用可能として表示されますが、使用不可のままです。
パイプラインが一部の SQL ステートメントを保存できない
括弧付きの SQL ステートメントがスクリプトまたはユーザー変数で渡される場合、パイプラインは保存できません。
この問題を解決するには、括弧のすべてのインスタンスをそれぞれの ASCII コード ((
を #40
に、 )
を #41
に) に置き換え、コードをユーザー変数として設定するときに置き換えます。
例えば、 「Bash スクリプトの実行ノード」 内のステートメント select CAST(col1 as VARCHAR(30)) from dbo.table
はエラーを引き起こします。 代わりに、ステートメント select CAST#40col1 as VARCHAR#4030#41#41 from dbo.table
を使用して、インスタンスをユーザー変数として設定するときに置き換えます。
注釈の制限に達するとオーケストレーション パイプラインは中止されます
パイプライン式には注釈が必要ですが、注釈の制限により制限があります。Kubernetes。 この制限に達すると、パイプラインはログを表示せずに中止されます。
オーケストレーション・パイプラインの制限
これらの制限は、オーケストレーション・パイプラインに適用されます。
単一パイプラインの制限
これらの制限は、構成に関係なく、単一のパイプラインに適用されます。
- 単一のパイプラインに 120 を超える標準ノードを含めることはできません
- ループのあるパイプラインには、すべての反復にわたって 600 を超えるノードを含めることはできません (例えば、60 個の反復-それぞれ 10 個のノード)。
入出力サイズの制限
入力値と出力値 (パイプライン・パラメーター、ユーザー変数、および汎用ノードの入力と出力を含む) は、10 KB を超えるデータにすることはできません。
バッチ入力がデータ資産に制限される
現時点では、バッチ・デプロイメント・ジョブの入力はデータ資産に制限されています。 これは、入力として JSON 入力または複数のファイルを必要とする特定のタイプのデプロイメントがサポートされないことを意味します。 例えば、入力として複数のファイルを必要とする SPSS モデルおよび Decision Optimization ソリューションはサポートされていません。
Bash スクリプトが curl コマンドでエラーをスローする
パイプライン内の Bash スクリプトで curl コマンドを実装すると、エラーが発生する可能性があります。 この問題を回避するには、curl コマンドをパラメーターとして設定します。 保存時にエラーの原因となるパイプラインを保存するには、isx ファイルをエクスポートして新規プロジェクトにインポートしてみてください。
Cloud Object Storage の問題
これらの問題は、 Cloud Object Storageの操作に適用されます。
Key Protect が有効な場合の Cloud Object Storage の問題
Key Protect を Cloud Object Storage と併用することは、 Watson Machine Learning 資産での作業ではサポートされていません。 Key Protectを使用している場合、 Watson Studioで資産を操作するときに以下の問題が発生することがあります。
- 以下の Watson Machine Learning 資産のトレーニングまたは保存が失敗する可能性があります。
- Auto AI
- 統合学習
- パイプライン
- SPSS モデルまたはノートブック・モデルをプロジェクトに保存できない場合があります。
watsonx.governance の問題
OpenPagesとの統合の制限
AI Factsheets が OpenPages, と統合されている場合、フィールドグループ MRG-UserFacts-Model
または MRG-UserFact-Model
と MRG-UserFacts-ModelEntry
または MRG-UserFact-ModelUseCase
で作成されたフィールドは、modelfacts_user_op
と model_entry_user_op
の資産タイプ定義に同期されます。 しかし、OpenPagesアプリケーションからフィールドを作成する場合は、フィールドを必須として指定することは避け、値の範囲を指定しないでください。 必須とマークしたり、値の範囲を指定したりすると、同期は失敗します。
プロンプト・テンプレートのデプロイメント・データをファセット・シートに表示する遅延
プロンプト・テンプレート用にデプロイメントが作成された場合、デプロイメントのファクトは即時にファクト・シートに追加されません。 ファクトをファクト・シートに追加するには、まずデプロイメントを評価するか、ライフサイクル・トラッキング・ページを表示する必要があります。
ファクト・シート内の添付ファイル・リンクが重複しています
ファクト・シートは、ライフサイクルのすべてのフェーズにわたって、アセットのすべてのイベントを追跡します。 添付ファイルが各ステージに表示され、ファセット・シートに冗長性が作成されます。
プロンプト・テンプレートの添付ファイルがインポート時またはエクスポート時に保存されない
AI ユース・ケースにプロンプト・テンプレートの添付ファイルが含まれている場合、プロンプト・テンプレート資産がプロジェクトからエクスポートされるか、プロジェクトまたはスペースにインポートされるときに、添付ファイルは保持されません。 インポート操作の後にファイルを再添付する必要があります。