0 / 0
資料の 英語版 に戻る
既知の問題と制限
既知の問題と制限

既知の問題と制限

Cloud Pak for Data as a Service には、以下の制限事項と既知の問題が適用されます。

Watson Knowledge Catalog の問題のリスト

マスキング・フローの問題のリスト

Data Refinery の問題のリスト

Watson Query の問題のリスト

Watson Studio の問題のリスト

Watson Machine Learning の問題のリスト

Cognos Dashboard Embedded の問題のリスト

Watson OpenScale の問題のリスト

SPSS Modeler の問題のリスト

Watson Knowledge Catalog

Watson Knowledge Catalog を使用している場合、カタログの使用時に、以下の既知の問題や制限が発生することがあります。

一部のプロジェクト・ツールでデータがマスクされない

マスクされた列が含まれる接続済みデータ資産をカタログからプロジェクトに追加すると、データを表示したり、Data Refinery ツールでデータを精製したりする場合に、その列はマスクされたままになります。 ただし、プロジェクト内の他のツールでは、接続を介してデータにアクセスするときにマスキングを保持しません。 例えば、ノートブック、 DataStage フロー、ダッシュボード、またはその他のプロジェクト・ツールで接続データをロードする場合は、直接接続を介してデータにアクセスし、マスキングをバイパスします。

事前定義ガバナンス成果物が使用できない可能性があります

事前定義された分類またはデータ・クラスが表示されない場合は、以下の API 呼び出しを使用してテナントを再初期化します。

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

小文字の E メール・アドレスでコラボレーターを追加する

コラボレーターをカタログに追加する場合は、E メール・アドレスをすべての小文字で入力してください。 大/小文字混合の E メール・アドレスはサポートされません。

Object Storage 接続の制限

Cloud Object Storage (S3 API) 接続または Cloudant 接続を表示すると、フォルダー自体が子資産としてリストされます。

複数の同時接続操作が失敗する場合がある

複数のユーザーが同時に接続操作を実行している場合に、エラーが発生することがあります。 エラー・メッセージは異なる場合があります。

カタログ作成後にデータ保護ルールの適用を有効にできません

カタログの作成後に、データ保護ルールの適用を有効にすることはできません。 カタログ内の資産にデータ保護ルールを適用するには、カタログ作成時に適用を有効にする必要があります。

評価が失敗した場合に資産がブロックされる

ポリシーが適用されているカタログ内のデータ資産には、以下の制約事項が適用されます。ヘッダーを持つファイル・ベースのデータ・資産では、列名に重複する列名、ピリオド (.)、または単一引用符 (') を使用できません。

評価が失敗すると、資産所有者を除くすべてのユーザーに対して資産がブロックされます。 その他のすべてのユーザーには、評価が失敗して資産がブロックされているためにデータ資産を表示できないというエラー・メッセージが表示されます。

「デフォルト設定」ページからメタデータ・エンリッチ資産に戻るのは、ブラウザーの「戻る」ボタンのみです

メタデータ・エンリッチ資産内から 「デフォルト設定」ページを開いた場合、製品 UI またはパンくずリストのボタンを使用して資産に戻ることはできません。 ブラウザーの「戻る」ボタンを使用して、資産に戻ります。

メタデータ・エンリッチ結果のデータ・クラス・フィルターのみで大/小文字が区別されます

「列」タブでメタデータ・エンリッチ結果をフィルタリングする場合、大/小文字が区別されるのは データ・クラスエントリーのみです。 ビジネス用語スキーマ、および 資産フィルターの項目は、値の実際の大/小文字に関係なく、すべて小文字です。

メタデータ・エンリッチ結果のフィルター・オプションがすぐに更新されないことがあります

アセトを追加したり、新しいデータ・クラスまたはビジネス用語を割り当てたり、ビジネス用語を削除しても、それぞれのフィルターはすぐには更新されません。 回避策として、ブラウザーをリフレッシュして、更新されたフィルター・リストを確認してください。

資産のエンリッチ詳細に、最新のエンリッチ実行で適用された設定が反映されない場合があります

少なくとも 1 回実行されたメタデータ・エンリッチのエンリッチ・オプションを編集すると、資産の詳細には、最新のエンリッチ実行で適用されたオプションではなく、更新されたオプションが表示される場合があります。

メタデータ・エンリッチ資産内の個々のページに直接アクセスできません

メタデータ・エンリッチ資産内の資産または列の数が複数ページにわたる場合、特定のページに直接移動することはできません。 ページ番号ドロップダウン・リストは無効になっています。 代わりに、 「次のページ」ボタンと「前のページ」ボタンを使用してください。

列のエンリッチ結果に割り当てられたデータ・クラスの不完全な詳細

メタデータ・エンリッチ結果の列詳細の「ガバナンス」タブで、割り当てられたデータ・クラスをクリックすると、データ・クラス詳細のプレビューが表示されます。 ただし、詳細は不完全です。

場合によっては、UI にメタデータ・エンリッチ・ジョブの実行の全ログが表示されないことがあります。

メタデータ・エンリッチ実行でのエラーのリストが非常に長い場合は、ジョブ・ログの一部のみが UI に表示される可能性があります。

回避策: ログ全体をダウンロードし、外部エディターで分析します。

エンリッチ結果をフィルタリングするときにスキーマ情報が欠落している可能性がある

エンリッチ結果の資産または列をソース情報でフィルタリングすると、スキーマ情報が使用できない場合があります。

回避策: エンリッチ・ジョブを再実行し、 「ソース」 フィルターを再度適用します。

メタデータ・エンリッチ資産の 「資産」 タブで資産を検索しても、結果が返されない場合があります。 以下の制限を考慮してください。

  • 検索では大/小文字を区別します
  • 結果には、完全一致検索句に一致するレコード、またはその句で始まるレコードのみが含まれます。

マスキング・フロー

マスキング・フローを使用する場合、データを私用化するときに、以下の既知の問題および制約事項が発生する可能性があります。

マスク・フロー・ジョブが失敗する可能性があります

マスキング・フロー・ジョブ中に、Spark はすべてのデータ・ソースをメモリーに読み込もうとする可能性があります。 ジョブをサポートするための十分なメモリーがない場合、エラーが発生する可能性があります。 デプロイされた最大の Spark 処理ノードに収まる最大データ・ボリュームは、約 12GBsです。

Data Refinery

Data Refinery を使用している場合、データを精製する際に、以下の既知の問題や制限が発生することがあります。

Data Refinery で接続済みデータ資産の個人資格情報がサポートされない

個人の資格情報を使用して接続済みデータ資産を作成する場合、他のユーザーは、Data Refinery で接続済みデータ資産を使用するために、以下の回避策を使用する必要があります。

回避策:

  1. 「プロジェクト」ページに移動し、接続済みデータ資産のリンクをクリックしてプレビューを開きます。
  2. 資格情報を入力します。
  3. Data Refinery を開き、ソースまたはターゲットに対して認証された接続済みデータ資産を使用します。

新規プロジェクト UI で Data Refinery フローのジョブを表示できません

新規プロジェクト UI で作業している場合、 Data Refinery フローのオプション・メニューからジョブを表示するオプションはありません。

回避策: Data Refinery フローでジョブを表示するには、 Data Refinery フローを開きます。 「ジョブ」 アイコン ジョブの実行またはスケジュール・アイコンをクリックし、 「保存して表示」 ジョブを選択します。 「ジョブ」タブで、プロジェクト内のすべてのジョブのリストを表示できます。

Watson Studio の問題

Watson Studio の使用開始および使用時に以下の問題が発生することがあります。

Federated Learning 資産は、新規プロジェクト UI のすべての資産、検索結果、またはフィルター結果では検索できません

新規プロジェクト UI で作業している場合、 「すべての資産」 ビュー、検索結果、またはプロジェクトのフィルター結果から統合学習資産を検索することはできません。

回避策: Federated Learning 資産をクリックしてツールを開くか、レガシー・プロジェクトに戻して、完全に統合されたバージョンの Federated Learning をプロジェクトで使用し続けます。

ノートブックを複製しても、新規プロジェクト UI に固有の名前が作成されません

新規プロジェクト UI でノートブックを複製した場合、重複するノートブックは固有の名前で作成されません。

古いアカウントで資産を作成できません

2017 年 11 月より前にアクティブ化された Watson Studio のインスタンスで作業している場合は、ノートブックなどの運用資産を作成できない可能性があります。 「作成」ボタンがグレーのままで無効になっている場合は、サービス・カタログからアカウントに Watson Studio サービスを追加する必要があります。

Watson Studio の起動時に 500 内部サーバー・エラーを受け取りました

Watson Studio の起動時に HTTP 内部サーバー・エラー (500) を受け取ることはめったにありません。 これは、ブラウザーに保管されている Cookie の有効期限が切れたことが原因である可能性があります。 エラーの原因が失効した Cookie であることを確認するには、プライベート・ブラウズ・セッション (匿名) で、または別のブラウザーを使用して、 Watson Studio を起動してみてください。 新しいブラウザーで正常に起動できる場合は、Cookie の有効期限が切れたことがエラーの原因です。 以下の解決策を選択できます。

  1. ブラウザー・アプリケーションを完全に終了して、Cookie をリセットします。 ブラウザー・ウィンドウを閉じるだけではなく、アプリケーションを閉じて再始動する必要があります。 ブラウザー・アプリケーションを再始動し、Watson Studio を起動してセッション Cookie をリセットします。
  2. ブラウズ・データから IBM Cookie をクリアして、Watson Studioを起動します。 ブラウザーのブラウズ・データまたはセキュリティー・オプションを調べて、Cookie をクリアします。 すべての IBM Cookie をクリアすると、他の IBM アプリケーションに影響する可能性があることに注意してください。

これらの解決策のいずれかを実行しても 500 エラーが解決しない場合は、 Watson Studio に影響する IBM Cloud インシデントがないか 「状況」ページ を確認してください。 さらに、 IBM Cloud サポート・ポータルでサポート・ケースをオープンすることもできます。

ログイン時のエラー

Watson Studio にログインしようとすると、「予期しないエラーのため、Access Manager WebSEAL が要求を完了できませんでした」というエラー・メッセージが表示される場合があります。 dataplatform.cloud.ibm.com に戻って再度ログインしてください。 通常、2 回目のログイン操作は成功します。

一部の Tensor ライブラリーの手動インストールがサポートされていない

一部の Tensor Flow ライブラリーはプリインストールされていますが、ユーザーが追加の Tensor Flow ライブラリーをインストールしようとするとエラーになります。

コード・セル実行後のノートブック・カーネルへの接続に予想以上の時間がかかる

カーネルに再接続してコード・セルを即時に実行しようとした場合 (またはコード実行中にカーネルの再接続が発生した場合)、ノートブックはカーネルに再接続せず、コード・セルの出力は表示されません。 「カーネル」 > 「再接続」をクリックして、カーネルに手動で再接続する必要があります。 カーネルが準備できたら、コード・セルを再度実行できます。

事前定義の sqlContext オブジェクトを複数のノートブックで使用するとエラーが発生する

事前定義の sqlContext オブジェクトを複数のノートブックで使用すると、Apache Spark エラーが発生することがあります。 ノートブックごとに新しい sqlContext オブジェクトを作成してください。 このスタック・オーバーフローの説明を参照してください。

Spark タスクが AWS キー欠落エラーで失敗することがある

S3 で Parquet を読み取るかまたは書き込むジョブの実行中に、失敗した実行プログラムを再作成すると、AWS キーが欠落しているために後続のタスクが失敗します。

Scala ノートブックを開くときにノートブック・カーネルが開始しない

Spark とカスタム Scala ライブラリーを使用する Scala ノートブックを開くと、ノートブック・カーネルが実行されていないことがあります。 この状況は、使用している Spark バージョンと互換性のない Scala ライブラリーを使用している場合 (例: Spark 2.1 を使用するノートブックで Scala 2.10 jar ファイルを使用する場合) に発生します。

この状況を回避するには、以下のようにします。

  1. Spark 2.1 で Scala 2.11 ライブラリーを使用していることを確認します。
  2. Python ノートブックで以下のコードを実行して、既存の Scala ライブラリーを削除します。

    !rm -rvf ~/data/libs/*
    
  3. 必要なライブラリーを再ロードします。

接続失敗メッセージ

カーネルが停止すると、ノートブックがそれ以降自動的に保存されなくなります。 保存するには、「ファイル」 > 「保存」 を手動でクリックします。Spark バージョンの前に表示されるカーネル情報領域にノートブックを保存しましたメッセージが表示されます。 カーネルが失敗したことを示すメッセージが表示された場合は、ノートブックをカーネルに再接続するために「カーネル」 > 「再接続」をクリックします。 カーネルを再始動してもノートブックを保存できない場合は、「ファイル」 > 「次の形式でダウンロード」 > 「ノートブック (.ipynb)」をクリックしてノートブックをダウンロードし、変更を保存することができます。 その後、ダウンロードしたノートブック・ファイルに基づいて新しいノートブックを作成する必要があります。

Amazon EMR のノートブック・カーネルへの接続が失敗する

ノートブック言語 ( Python 3.7 with Spark など) がノートブックに表示されない場合は、ノートブック・カーネルを開始できませんでした。

Kernel Gateway to Amazon Elastic Map Reduce が開始され、そのエンドポイントがインターネット経由でアクセス可能であることを確認するには、curl https://<KG_EMR_URL>:<PORT>/api/kernelspecs -H "Authorization: token <Personal_access_token>"を実行します。

使用可能なカーネルの JSON リストが返される場合は、Kernel Gateway にアクセスできます。 それ以外の場合は、Jupyter Kernel Gateway を Amazon EMR に再インストールする必要があります。 詳しくは、Amazon EMR Spark サービスの追加を参照してください。

Amazon EMR のノートブック・カーネルへの接続に予想以上の時間がかかる

ノートブック・カーネルが開始しない場合、Amazon Elastic Map Reduce サービスで Spark リソースが不足している可能性があります。 Spark リソースを解放するには、使用していないノートブックのカーネルを停止します。 あるいは、EMR クラスターへの Kernel Gateway を再始動することで、すべてのカーネルを停止できます。

  1. Amazon EMR コンソールを開き、クラスターのマスター・ノードへログインします。
  2. wget https://raw.githubusercontent.com/IBMDataScience/kernelgateway-setup/master/install_kg_emr_bootstrap_script.sh と入力して、Kernel Gateway セットアップをダウンロードします。
  3. chmod +x install_kg_emr_bootstrap_script.sh と入力してスクリプトを実行します。
  4. ./install_kg_emr_bootstrap_script.sh --restart と入力して Kernel Gateway を再始動します。 ポート番号を求めるプロンプトが出されます。

Amazon EMR への接続が使用できない

Amazon Elastic Map Reduce への接続中に問題が断続的に発生する場合は、Kernel Gateway をアンインストールしてから再インストールすることが推奨されます。

  1. Amazon EMR コンソールを開き、クラスターのマスター・ノードへログインします。
  2. wget https://raw.githubusercontent.com/IBMDataScience/kernelgateway-setup/master/install_kg_emr_bootstrap_script.sh と入力して、Kernel Gateway セットアップをダウンロードします。
  3. chmod +x install_kg_emr_bootstrap_script.sh と入力してスクリプトを実行します。
  4. ./install_kg_emr_bootstrap_script.sh --uninstall と入力して Kernel Gateway を削除します。
  5. ./install_kg_emr_bootstrap_script.sh と入力して Kernel Gateway を再インストールします。

IBM Analytics Engine サービスへの接続が使用できない

Watson Studio でノートブックに使用するために選択した IBM Analytics Engine サービス・インスタンスが、削除されているかまたは実行中ではない可能性があります。 サービス・インスタンスが存在しており、IBM Cloud ダッシュボードでプロビジョンされているかどうかを確認するため、Watson Studio のナビゲーション・メニューをクリックし、「ダッシュボード」を選択します。

「サービスと統合」ページの IBM サービスセクションから新しい IBM Analytics Engine サービスを追加します。

Spark 3.0 と Scala 2.12 の環境で実行されているノートブックでは、「コードに挿入」がサポートされない

Spark 3.0 & Scala 2.12 環境で実行される Scala ノートブックでは、プロジェクト資産からデータにアクセスできません。 資産名の下の「コードに挿入」リンクをクリックし、SparkSession DataFrame にデータをロードすることを選択すると、エラーが返されます。 回避策としては、Spark 2.4 と Scala 2.11 の環境の使用に戻すことです。

例えば、ノートブックの上部の概要セクションからリンクしたセクションがノートブックに含まれていて、ノートブックが Firefox の表示専用モードで開かれた場合、それらのセクションへのリンクは機能しません。 ただし、編集モードでノートブックを開くと、これらのリンクは機能します。

ノートブック・カーネルに接続できません

ノートブックを実行しようとしたときに、Connecting to Kernelというメッセージが表示され、その後にConnection failed. Reconnectingというメッセージが表示され、最後に接続が失敗したというエラー・メッセージが表示された場合、ファイアウォールがノートブックの実行をブロックしていることが原因である可能性があります。

Watson Studio がファイアウォール保護下にインストールされている場合は、WebSocket 接続wss://dataplatform.cloud.ibm.comをファイアウォール設定に追加する必要があります。 ノートブックおよび RStudio を使用する場合は、この WebSocket 接続を有効にする必要があります。

ノートブックを開くときまたは編集するときに ERROR_RESOURCES_UNAVAILABLE

ノートブックを開いたり編集したりするときにメッセージ ERROR_RESOURCES_UNAVAILABLE が表示される場合は、ノートブックに関連付けられている環境ランタイムにリソースの問題があります。

原因を見つけるには、 Watson Studioに影響する IBM Cloud インシデントの状況ページを確認してください。 さらに、 IBM Cloud サポート・ポータルでサポート Case をオープンすることもできます。

Watson Machine Learning の問題

IBM Watson Machine Learning コンポーネント (モデル・ビルダーおよびフロー・エディターを含む) を使用している場合に、以下の問題が発生することがあります。

リージョンの要件

Watson Machine Learning サービス・インスタンスと Watson Studio インスタンスが同じリージョンに存在する場合にのみ、Watson Studio プロジェクトに Watson Machine Learning サービス・インスタンスを関連付けることができます。

フロー・エディター・ランタイムの制限

ペルー、エクアドル、コロンビア、およびベネズエラでは、Watson Studio に SPSS 機能が含まれていません。

デプロイメントの問題

  • 一定の期間 (無料プランでは 24 時間、有料プランでは 120 時間) にわたって非アクティブ (スコアなし) であったデプロイメントは、自動的にハイバネートされます。 新しいスコア要求が実行依頼されると、デプロイメントが再アクティブ化され、スコア要求が処理されます。 モデルのフレームワークに応じて、アクティブ化後の初回スコア要求で 1 秒から 60 秒の短い遅延が生じることを理解しておいてください。
  • SPSS Modeler などの一部のフレームワークでは、ハイバネーション後のデプロイ済みモデルに対する初回スコア要求が 504 エラーになることがあります。 このエラーが発生した場合は、要求を再度実行依頼してください。後続の要求は正常に完了するはずです。

AutoAI の既知の制限事項

  • 現時点では AutoAI エクスペリメントは 2 バイト文字セットをサポートしていません。 AutoAI は、ASCII 文字を使用した CSV ファイルのみをサポートしています。 ユーザーは、ファイル名またはコンテンツ内の非 ASCII 文字を変換し、この CSV 標準で定義されているように入力データを CSV として提供する必要があります。

  • Auto AI モデルをプログラムで操作するには、Python クライアントではなく REST API を使用してください。 AutoAI をサポートするために必要な Python クライアントの APIは、現時点では使用できません。

IBM Federated Learning でデータ・モジュールが見つかりません

IBM Federated Learning のデータ・ハンドラーが FL ライブラリーからデータ・モジュールを抽出しようとしましたが、見つかりません。 場合によっては以下のエラー・メッセージが表示されます。

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

この問題は、古い DataHandler を使用したことが原因である可能性があります。 最新の仕様に準拠するように DataHandler を確認して更新してください。 ここに、最新の MNIST データ・ハンドラーへのリンクを示します。または、ギャラリーのサンプル・バージョンが最新のものであることを確認します。

IBM 統合学習エクスペリメントの再実行中にポッドの作成が失敗する

場合によっては以下のエラー・メッセージが表示されます。

Pod creation failed because of insufficient resources that prevented scheduling.

この問題は、新しいソフトウェア仕様で古いモデルを使用したことが原因である可能性があります。 モデルを確認し、最新の仕様に準拠するように更新してください。 最新の フレームワークと Python バージョンの互換性へのリンクを以下に示します。

Cognos Dashboard Embedded の問題

Cognos Dashboard Embedded を使用している場合には以下の問題が発生することがあります。

Cognos ダッシュボードでは、ユーザー名とパスワードの資格情報を使用して作成されたデータ接続のみを使用できます

Cognos Dashboard Embedded では、ダッシュボードにデータ・ソースとして追加されるデータベース接続および接続されたデータ資産に、ユーザー名とパスワードの資格情報が含まれている必要があります。

これらの資格情報が接続で指定されておらず、代わりにトークンまたは API キーが使用されている場合、 Cognos Dashboard Embedded はその接続または接続されているデータ資産をデータ・ソースとして使用できません。

精製されたデータ資産について正しくないデータ・タイプが表示される

CSV ファイルをインポートした後、 「データ資産の概要」ページでインポートしたファイルをクリックすると、一部の列のタイプが正しく表示されない場合があります。 例えば、企業の収益を含む収益という列がある企業レポートのデータ・セットは、より論理的な数値指向のデータ・タイプではなく、タイプストリングとして表示される可能性があります。

CSV ファイルでサポートされない特殊文字

ソース CSV ファイル名には非英数字を使用することができます。 ただし、CSV ファイル名に特殊文字 / : & < . \ "を含めることはできません。 ファイル名にこれらの文字が含まれている場合は、テーブル名から削除されます。

重要: ソース CSV ファイル内のテーブル列名に、サポートされない特殊文字を含めることはできません。 データ・モジュール内の名前はソース・ファイル内の列の名前と一致する必要があるため、これらの文字を削除することはできません。 この場合、列名の特殊文字を削除して、ダッシュボードでデータを使用できるようにします。

CSV ファイルの文字列値は 128 文字に制限されている

ソース CSV ファイル内の列のストリング値の長さは 128 文字以内でなければなりません。 CSV ファイルにそれより長い値を持つストリング列がある場合、エラー・メッセージが表示されます。

CSV ファイルの日付形式の制限事項

視覚化で使用される CSV ファイルには、日付形式の制限事項があります。 詳しくは、Resolving problems when using data from CSV files in Cognos Dashboard Embedded を参照してください。

視覚化内のデータ・テーブルを置換できません

ダッシュボードに視覚化を追加する場合、以前に別のデータ・テーブルからデータ・フィールドを追加した (その後で削除した) 場合は、データ・テーブルを視覚化に追加することはできません。 この制限は、 Db2、 CSV テーブル、およびその他のデータ・ソースに適用されます。

サポートされない Cognos Analytics 機能

IBM Cognos Analytics の以下の機能は、ダッシュボードではサポートされていません。

  • データのグループ化
  • カスタム・カラー・パレット
  • カスタム視覚化
  • アシスタント
  • 予測
  • 視覚化での洞察
  • Jupyter notebook の視覚化
  • 高度なデータ分析

SPSS Modeler の問題

SPSS Modelerで作業する際に、これらの問題の一部が発生する場合があります。

実行中のフローを停止しようとしたときにエラーが発生します

SPSS Modeler フローの実行中に、プロジェクトの 「管理」タブの下の 「環境」ページからフローを停止しようとすると、エラーが発生することがあります。 SPSS Modeler ランタイムおよび CUH 使用を完全に停止するには、フローを開いているブラウザー・タブを閉じます。

インポートしたデータ資産エクスポート・ノードの実行が失敗することがある

SPSS Modeler ストリーム (.str ファイル) をインポートして新規フローを作成し、エクスポート・ノードをマイグレーションしてから、結果のデータ資産エクスポート・ノードを実行すると、実行が失敗する場合があります。 この問題を回避するには、ノードを再実行し、出力名を変更し、ノード・プロパティーのデータ・セットが既に存在する場合オプションを変更してから、ノードを再実行します。

表メタデータが変更された場合にデータ・プレビューが失敗することがあります

場合によっては、データ資産インポート・ノードを使用して接続からデータをインポートするときに、基礎となる表メタデータ (データ・モデル) が変更されていると、データ・プレビューでエラーが返されることがあります。 問題を解決するには、データ資産ノードを再作成してください。

拡張の出力ノードを実行した後に出力を表示できない

「ファイルへの出力」オプションを選択して拡張出力ノードを実行すると、結果の出力ファイルを「出力」パネルから開こうとしたときにエラーが返されます。

COS 接続から Excel データをプレビューできません

現在、COS 接続から .xls または .xlsx データをプレビューすることはできません。

数値が文字列として解釈される

精度が 32 以上かつスケールが 0 の数値は、文字列として解釈されます。 この動作を変更する必要がある場合は、置換ノードを使用して、to_real (@FIELD) 式を使用する代わりに、フィールドを実数にキャストすることができます。

インポート・ノードを含むスーパーノード

インポート・ノードを含むスーパーノードがフローに含まれている場合、 「スコアリング・ブランチ」オプションを指定してモデルを保存すると、入力スキーマが正しく設定されない可能性があります。 この問題を回避するには、保存する前にスーパーノードを展開してください。

サポートされない Python バージョンを含む KDE ノード

フローに古い KDE ノードが含まれている場合、サポートされなくなった Python パッケージを使用してモデルを実行すると、エラーを受け取ることがあります。 このような場合は、古い KDE ノードを削除し、新しいノードを追加してください。

SAV ファイルへのエクスポート

データ資産エクスポート・ノードを使用して SPSS Statistics SAV ファイル (.sav) にエクスポートすると、入力スキーマが出力スキーマと一致しない場合に、 「データ資産の置換」オプションが機能しません。 置換する既存のファイルのスキーマが一致している必要があります。

区切り文字と小数部のオプション

データ資産ノード (.csv) に設定できるのは、フィールド区切り文字と 10 進数のオプションのみです。 現時点では、これらのオプションを接続に対して使用できません。

Watson Machine Learning Server でのフローの実行

Watson Machine Learning Server でフローを実行すると、以下の問題が発生する可能性があります。

  • フローが接続を参照する場合、ローカル・マシン (接続を構成するため) とリモート Watson Machine Learning Server (フローを実行するため) の両方で接続にアクセスできる必要があります。
  • フローに Text Analytics ノードが含まれている場合は、そのフローを Watson Machine Learning Server で実行できません。 フローをローカルで実行する必要があります。
  • Watson Machine Learning Server 上で実行されるフローへのマイグレーションを必要とするストリーム・ファイル (.str) をインポートしないでください。

インポート・ノードのマイグレーション

SPSS Modeler デスクトップで作成され、サポートされないインポート・ノードが 1 つ以上含まれているフローにストリーム (.str) をインポートすると、インポート・ノードをデータ資産にマイグレーションするように求めるプロンプトが出されます。 このストリームに同じデータ・ファイルを使用する複数のインポート・ノードが含まれている場合は、マイグレーションの前にそのファイルをデータ資産としてプロジェクトに追加する必要があります。これは、マイグレーションで同じファイルを複数のインポート・ノードにアップロードできないためです。 データ資産をプロジェクトに追加したら、フローをもう一度開き、新しいデータ資産を使用してマイグレーションを続行します。

Text Analytics

Text Analytics ノードには、以下の問題があります。

  • Text Analytics Workbench から新規モデルを生成する場合、その新規モデルはどのノードにも接続されません。 例えば、「新規モデルを生成」を 10 回クリックすると、新しいモデル作成ノードが 10 個生成されます。
  • 言語リソースの編集は現在使用できません。
  • フローに Text Analytics ノードが含まれている場合は、そのフローを Watson Machine Learning Server で実行できません。
  • テキスト分析ワークベンチで 「新規モデルの生成」をクリックすると、フロー内に新しいモデル・ナゲットが作成されます。 複数のモデルを生成すると、それらはすべて同じ名前になるため、区別するのが難しくなります。 アノテーションを使用して識別することをお勧めします (モデル・ナゲットをダブルクリックしてプロパティーを開き、「注釈」に移動します)。
  • テキスト分析ワークベンチを閉じると、変更したフィルター設定またはカテゴリー作成設定は、ノードにそのまま保存されません。

親トピック: Cloud Pak for Data as a Service