既知の問題と制約事項
watsonxには、以下の制限事項と既知の問題が適用されます。
Data Refinery
Data Refinery を使用している場合、データを精製する際に、以下の既知の問題や制限が発生することがあります。
新規プロジェクト UI で Data Refinery フローのジョブを表示できません
新規プロジェクト UI で作業している場合、 Data Refinery フローのオプション・メニューからジョブを表示するオプションはありません。
回避策: Data Refinery フローでジョブを表示するには、 Data Refinery フローを開き、 「ジョブ」 アイコン をクリックして、 「保存して表示」 ジョブを選択します。 「ジョブ」タブで、プロジェクト内のすべてのジョブのリストを表示できます。
ノートブックの問題
ノートブックの使用を開始するときに、これらの問題のいくつかが発生することがあります。
一部の Tensor ライブラリーの手動インストールがサポートされていない
一部の Tensor Flow ライブラリーはプリインストールされていますが、ユーザーが追加の Tensor Flow ライブラリーをインストールしようとするとエラーになります。
コード・セル実行後のノートブック・カーネルへの接続に予想以上の時間がかかる
カーネルに再接続してコード・セルを即時に実行しようとした場合 (またはコード実行中にカーネルの再接続が発生した場合)、ノートブックはカーネルに再接続せず、コード・セルの出力は表示されません。 「カーネル」 > 「再接続」をクリックして、カーネルに手動で再接続する必要があります。 カーネルが準備できたら、コード・セルを再度実行できます。
事前定義の sqlContext オブジェクトを複数のノートブックで使用するとエラーが発生する
事前定義の sqlContext オブジェクトを複数のノートブックで使用すると、Apache Spark エラーが発生することがあります。 ノートブックごとに新しい sqlContext オブジェクトを作成してください。 このスタック・オーバーフローの説明を参照してください。
接続失敗メッセージ
カーネルが停止すると、ノートブックがそれ以降自動的に保存されなくなります。 保存するには、「ファイル」 > 「保存」 を手動でクリックします。Spark バージョンの前に表示されるカーネル情報領域にノートブックを保存しましたメッセージが表示されます。 カーネルが失敗したことを示すメッセージが表示された場合は、ノートブックをカーネルに再接続するために「カーネル」 > 「再接続」をクリックします。 カーネルを再始動してもノートブックを保存できない場合は、「ファイル」 > 「次の形式でダウンロード」 > 「ノートブック (.ipynb)」をクリックしてノートブックをダウンロードし、変更を保存することができます。 その後、ダウンロードしたノートブック・ファイルに基づいて新しいノートブックを作成する必要があります。
ノートブック・セクションへのハイパーリンクがプレビュー・モードで機能しませんません
例えば、ノートブックの上部の概要セクションからリンクしたセクションがノートブックに含まれていて、ノートブックが Firefox の表示専用モードで開かれた場合、それらのセクションへのリンクは機能しません。 ただし、編集モードでノートブックを開くと、これらのリンクは機能します。
ノートブック・カーネルに接続できません
ノートブックを実行しようとしたときに、Connecting to Kernel
というメッセージが表示され、その後にConnection failed. Reconnecting
というメッセージが表示され、最後に接続が失敗したというエラー・メッセージが表示された場合、ファイアウォールがノートブックの実行をブロックしていることが原因である可能性があります。
Watson Studio がファイアウォール保護下にインストールされている場合は、WebSocket 接続wss://dataplatform.cloud.ibm.com
をファイアウォール設定に追加する必要があります。 ノートブックおよび RStudio を使用する場合は、この WebSocket 接続を有効にする必要があります。
機械学習の問題
機械学習ツールを使用して作業しているときに、これらの問題のいくつかが発生することがあります。
リージョンの要件
プロンプト・ラボ・ツールおよび基盤モデルの推論にアクセスできるのは、 Watson Studio と Watson Machine Learning サービスの両方をダラス・リージョンにプロビジョンした場合のみです。
Watson Machine Learning サービス・インスタンスをプロジェクトに関連付けることができるのは、 Watson Machine Learning サービス・インスタンスと Watson Studio インスタンスが同じリージョンにある場合のみです。
サービスをプロジェクトに関連付けるときにサービス・インスタンスを作成する場合のリンクへのアクセス
Watson Machine Learning サービスをプロジェクトに関連付けるときに、新規サービス・インスタンスを作成するオプションがあります。 新規サービスの作成を選択した場合、サービス・ページ上のリンクが機能しないことがあります。 サービスのご利用条件、API、および資料にアクセスするには、リンクを右クリックして新しいウィンドウで開きます。
Federated Learning 資産は、新規プロジェクト UI のすべての資産、検索結果、またはフィルター結果では検索できません
プロジェクトの 「すべての資産」 ビュー、検索結果、またはフィルター結果から統合学習資産を検索することはできません。
回避策: 統合学習アセットをクリックして、ツールを開きます。
デプロイメントの問題
- 一定の期間 (無料プランでは 24 時間、有料プランでは 120 時間) にわたって非アクティブ (スコアなし) であったデプロイメントは、自動的にハイバネートされます。 新しいスコア要求が実行依頼されると、デプロイメントが再アクティブ化され、スコア要求が処理されます。 モデルのフレームワークに応じて、アクティブ化後の初回スコア要求で 1 秒から 60 秒の短い遅延が生じることを理解しておいてください。
- SPSS Modeler などの一部のフレームワークでは、ハイバネーション後のデプロイ済みモデルに対する初回スコア要求が 504 エラーになることがあります。 このエラーが発生した場合は、要求を再度実行依頼してください。後続の要求は正常に完了するはずです。
AutoAI の既知の制限事項
現時点では AutoAI エクスペリメントは 2 バイト文字セットをサポートしていません。 AutoAI は、ASCII 文字を使用した CSV ファイルのみをサポートしています。 ユーザーは、ファイル名またはコンテンツ内の非 ASCII 文字を変換し、この CSV 標準で定義されているように入力データを CSV として提供する必要があります。
Auto AI モデルをプログラムで操作するには、Python クライアントではなく REST API を使用してください。 AutoAI をサポートするために必要な Python クライアントの APIは、現時点では使用できません。
IBM Federated Learning でデータ・モジュールが見つかりません
IBM Federated Learning のデータ・ハンドラーが FL ライブラリーからデータ・モジュールを抽出しようとしましたが、見つかりません。 以下のエラー・メッセージが表示される場合があります。
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
この問題は、古い DataHandler を使用したことが原因である可能性があります。 最新の仕様に準拠するように DataHandler を確認して更新してください。 以下に、最新の MNIST データ・ハンドラー へのリンクを示します。または、サンプル・バージョンが最新のものであることを確認してください。
SPSS Modeler の問題
SPSS Modelerで作業しているときに、これらの問題のいくつかが発生することがあります。
SPSS Modeler ランタイムの制約事項
ペルー、エクアドル、コロンビア、およびベネズエラでは、Watson Studio に SPSS 機能が含まれていません。
実行中のフローを停止しようとしたときにエラーが発生します
SPSS Modeler フローの実行中に、プロジェクトの 「管理」タブの下の 「環境」ページからフローを停止しようとすると、エラーが発生することがあります。 SPSS Modeler ランタイムおよび CUH 使用量を完全に停止するには、フローを開いているブラウザー・タブを閉じます。
インポートしたデータ資産エクスポート・ノードの実行が失敗することがある
SPSS Modeler ストリーム (.str ファイル) をインポートして新規フローを作成し、エクスポート・ノードをマイグレーションしてから、結果のデータ資産エクスポート・ノードを実行すると、実行が失敗する場合があります。 この問題を回避するには、ノードを再実行し、出力名を変更し、ノード・プロパティーのデータ・セットが既に存在する場合オプションを変更してから、ノードを再実行します。
表メタデータが変更された場合にデータ・プレビューが失敗することがあります
場合によっては、データ資産インポート・ノードを使用して接続からデータをインポートするときに、基礎となる表メタデータ (データ・モデル) が変更されていると、データ・プレビューでエラーが返されることがあります。 問題を解決するには、データ資産ノードを再作成してください。
拡張の出力ノードを実行した後に出力を表示できない
「ファイルへの出力」オプションを選択して拡張出力ノードを実行すると、結果の出力ファイルを「出力」パネルから開こうとしたときにエラーが返されます。
IBM Cloud Object Storage 接続から Excel データをプレビューできない
現在、 IBM Cloud Object Storage 接続から .xls または .xlsx データをプレビューすることはできません。
数値が文字列として解釈される
精度が 32 以上かつスケールが 0 の数値は、文字列として解釈されます。 この動作を変更する必要がある場合は、置換ノードを使用して、to_real (@FIELD) 式を使用する代わりに、フィールドを実数にキャストすることができます。
インポート・ノードを含むスーパーノード
インポート・ノードを含むスーパーノードがフローに含まれている場合、 「スコアリング・ブランチ」オプションを指定してモデルを保存すると、入力スキーマが正しく設定されない可能性があります。 この問題を回避するには、保存する前にスーパーノードを展開してください。
SAV ファイルへのエクスポート
データ資産エクスポート・ノードを使用して SPSS Statistics SAV ファイル (.sav) にエクスポートすると、入力スキーマが出力スキーマと一致しない場合に、 「データ資産の置換」オプションが機能しません。 置換する既存のファイルのスキーマが一致している必要があります。
インポート・ノードのマイグレーション
SPSS Modeler デスクトップで作成され、サポートされないインポート・ノードが 1 つ以上含まれているフローにストリーム (.str) をインポートすると、インポート・ノードをデータ資産にマイグレーションするように求めるプロンプトが出されます。 このストリームに同じデータ・ファイルを使用する複数のインポート・ノードが含まれている場合は、マイグレーションの前にそのファイルをデータ資産としてプロジェクトに追加する必要があります。これは、マイグレーションで同じファイルを複数のインポート・ノードにアップロードできないためです。 データ資産をプロジェクトに追加したら、フローをもう一度開き、新しいデータ資産を使用してマイグレーションを続行します。
テキスト分析の設定が保存されない
テキスト分析ワークベンチを閉じた後、変更したフィルター設定またはカテゴリー作成設定は、ノードにそのまま保存されません。
マージ・ノードと Unicode 文字
マージ・ノードは、以下の非常に類似した日本語文字を同じ文字として扱います。
Watson Pipelines の既知の問題
この問題は、 Watson Pipelinesに関するものです。
2 レベルを超えるループをネストすると、パイプライン・エラーが発生する可能性がある
2 レベルを超えるループをネストすると、パイプラインの実行時にエラー (実行の取得エラーなど) が発生する可能性があります。 ログを確認すると、 text in text not resolved: neither pipeline_input nor node_output
などのエラーが表示される場合があります。 Bash スクリプトからの出力でループしている場合、ログに PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output)
のようなエラーがリストされることがあります。 この問題を解決するには、ネスト・ループが 2 レベルを超えないようにしてください。
アセット・ブラウザーは、アセット・タイプの合計数のカウントを常に反映しているわけではありません
コピー・ノードのソースの選択など、アセット・ブラウザーからアセットを選択すると、一部のアセットにそのアセット・タイプの総数がリストされますが、ノートブックにはリストされません。 これは現在の制限事項です。
パイプライン・バージョンを削除できません
現在、不要になった保存済みのバージョンのパイプラインを削除することはできません。
一部の条件下で AutoAI エクスペリメントの削除が失敗する
AutoAI エクスペリメントの削除 ノードを使用してプロジェクト UI から作成された AutoAI エクスペリメントを削除しても、AutoAI 資産は削除されません。 ただし、フローの残りの部分は正常に完了できます。
キャッシュは有効になっているように見えますが、有効になっていません
「資産のコピー」 パイプライン・ノードの 「コピー・モード」 が Overwrite
に設定されている場合、キャッシュは使用可能として表示されますが、使用不可のままです。
Watson Pipelines の制限
これらの制限は、 Watson Pipelinesに適用されます。
単一パイプラインの制限
これらの制限は、構成に関係なく、単一のパイプラインに適用されます。
- 単一のパイプラインに 120 を超える標準ノードを含めることはできません
- ループのあるパイプラインには、すべての反復にわたって 600 を超えるノードを含めることはできません (例えば、60 個の反復-それぞれ 10 個のノード)。
構成サイズによる制限
小規模の構成
SMALL 構成は、600 個の標準ノード (すべてのアクティブ・パイプラインにわたって) をサポートするか、ループで実行される 300 個のノードをサポートします。 例:
- 20 個のノードを持つ 30 個の標準パイプラインが並行して実行される = 600 個の標準ノード
- 反復が 10 個、反復ごとに 10 個のノードを持つループを含む 3 つのパイプライン = ループ内の 300 個のノード
中規模の構成
MEDIUM 構成では、1200 個の標準ノード (すべてのアクティブ・パイプラインにわたる) または 600 個のノードがループで実行されます。 例:
- 40 個のノードを持つ 30 個の標準パイプラインが並行して実行される = 1200 個の標準ノード
- 各反復に 10 個の反復と 10 個のノードを持つループを含む 6 個のパイプライン = ループ内の 600 個のノード
大規模の構成
LARGE 構成は、4800 標準ノード (すべてのアクティブ・パイプラインにわたる) またはループで実行される 2400 ノードをサポートします。 例:
- 60 個のノードを持つ 80 個の標準パイプラインが並列で実行 = 4800 個の標準ノード
- 反復が 10 回、反復ごとに 10 個のノードを持つループを含む 24 個のパイプライン = ループ内の 2400 個のノード
入出力サイズの制限
入力値と出力値 (パイプライン・パラメーター、ユーザー変数、および汎用ノードの入力と出力を含む) は、10 KB を超えるデータにすることはできません。
バッチ入力がデータ資産に制限される
現時点では、バッチ・デプロイメント・ジョブの入力はデータ資産に制限されています。 これは、入力として JSON 入力または複数のファイルを必要とする特定のタイプのデプロイメントがサポートされないことを意味します。 例えば、入力として複数のファイルを必要とする SPSS モデルおよび Decision Optimization ソリューションはサポートされていません。
Cloud Object Storage の問題
これらの問題は、 Cloud Object Storageの操作に適用されます。
Key Protect が有効な場合の Cloud Object Storage の問題
Key Protect を Cloud Object Storage と併用することは、 Watson Machine Learning 資産での作業ではサポートされていません。 Key Protectを使用している場合、 Watson Studioで資産を操作するときに以下の問題が発生することがあります。
- 以下の Watson Machine Learning 資産のトレーニングまたは保存が失敗する可能性があります。
- Auto AI
- 連合学習
- Watson Pipelines
- SPSS モデルまたはノートブック・モデルをプロジェクトに保存できない場合があります。