0 / 0
Zurück zur englischen Version der Dokumentation
Bekannte Probleme und Einschränkungen
Bekannte Probleme und Einschränkungen

Bekannte Probleme und Einschränkungen

Die folgenden bekannten Probleme und Einschränkungen gelten für Cloud Pak for Data as a Service.

Liste der Probleme für Watson Knowledge Catalog

Liste der Probleme beim Datenschutz

Liste der Probleme für Data Refinery

Liste der Probleme für Watson Query

Liste der Probleme für Watson Studio

Liste der Probleme für Watson Machine Learning

Liste der Probleme für Cognos Dashboard Embedded

Liste der Probleme für Watson OpenScale

Liste der Probleme für SPSS Modeler

Watson Knowledge Catalog

Bei der Arbeit mit Watson Knowledge Catalog treten möglicherweise die folgendenbekannten Probleme und Einschränkungen auf, wenn Sie Kataloge verwenden:

Daten werden in einigen Projekttools nicht maskiert

Wenn Sie ein verbundenes Datenasset, das über maskierte Spalten aus einem Katalog verfügt, zu einem Projekt hinzufügen, bleiben die Spalten maskiert, wenn Sie die Daten anzeigen und wenn Sie die Daten im Data Refinery-Tool verfeinern. Bei Verwendung anderer Tools in den Projekten bleibt die Maskierung beim Zugriff auf die Daten über eine Verbindung jedoch nicht erhalten. Wenn Sie beispielsweise verbundene Daten in einem Notebook, einem DataStage -Ablauf, einem Dashboard oder anderen Projekttools laden, greifen Sie über eine direkte Verbindung auf die Daten zu und umgehen die Maskierung.

Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar

Wenn keine vordefinierten Klassifikationen oder Datenklassen angezeigt werden, reinitialisieren Sie Ihren Tenant mit dem folgenden API-Aufruf:

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Mitarbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen

Geben Sie beim Hinzufügen von Mitarbeitern zum Katalog die E-Mail-Adressen vollständig in Kleinbuchstaben ein. E-Mail-Adressen in Groß-/Kleinschreibung werden nicht unterstützt.

Einschränkungen bei ObjectStorage-Verbindungen

Bei einer Cloud Object Storage-Verbindung (S3-API) oder einer Cloudant-Verbindung wirdder Ordner selbst als untergeordnetes Asset aufgeführt.

Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl

Es kann ein Fehler auftreten, wenn mehrere Benutzer gleichzeitig Verbindungsoperationen ausführen. Die Fehlernachricht kann unterschiedlich lauten.

Die Durchsetzung von Datenschutzregeln kann nach der Katalogerstellung nicht aktiviert werden

Sie können die Durchsetzung von Datenschutzregeln nicht aktivieren, nachdem Sie einen Katalog erstellt haben. Wenn Sie Datenschutzregeln auf Assets in einem Katalog anwenden möchten, müssen Sie die Durchsetzung während der Katalogerstellung aktivieren.

Assets werden blockiert, wenn Auswertung fehlschlägt

Die folgenden Einschränkungen gelten für Datenassets in einem Katalog mit Richtliniendurchsetzung: Dateibasierte Datenassets mit Header dürfen weder doppelten Spaltennamen, noch einen Punkt (.) oder einfache Anführungszeichen (') in einem Spaltennamen enthalten.

Wenn die Auswertung fehlschlägt, wird das Asset für alle Benutzer mit Ausnahme des Asseteigners blockiert. Allen anderen Benutzern wird eine Fehlernachricht angezeigt, die besagt, dass das Datenasset nicht angezeigt werden kann, weil die Auswertung fehlgeschlagen ist und das Asset blockiert ist.

Nur über die Schaltfläche 'Zurück' des Browsers gelangen Sie von der Seite für Standardeinstellungen zurück zum Asset für Metadatenaufbereitung

Wenn Sie die Seite Standardeinstellungen in einem Asset für Metadatenaufbereitung öffnen, können Sie nicht über eine Schaltfläche in der Benutzerschnittstelle des Produkts oder über den Navigationspfad zum Asset zurückkehren. Verwenden Sie die Schaltfläche 'Zurück' im Browser, um zum Asset zurückzukehren.

Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet

Beim Filtern der Ergebnisse der Metadatenaufbereitung in der Registerkarte Spalte wird die Groß-/Kleinschreibung nur bei den Einträgen für Datenklasse beachtet. Die Einträge in den Filtern für Geschäftsbegriffe, Schemas und Assets werden in Kleinschreibung dargestellt, unabhängig von der tatsächlichen Schreibweise für den jeweiligen Wert.

Filteroptionen in den Ergebnissen der Metadatenaufbereitung werden möglicherweise nicht sofort aktualisiert

Wenn Sie Assets hinzufügen, neue Datenklassen oder Geschäftsbegriffe zuordnen oder Geschäftsbegriffe entfernen, werden die zugehörigen Filter nicht sofort aktualisiert. Um das Problem zu umgehen, aktualisieren Sie den Browser, damit die aktualisierten Filterlisten angezeigt werden.

Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden

Nach dem Bearbeiten der Aufbereitungsoptionen für eine Metadatenaufbereitung, die mindestens einmal ausgeführt wurde, werden in den Assetdetails möglicherweise die aktualisierten Optionen angezeigt und nicht die Optionen, die bei der letzten Ausführung der Metadatenaufbereitung angewendet wurden.

Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden

Wenn sich die Anzahl der Assets oder Spalten in einem Asset für Metadatenaufbereitung über mehrere Seiten erstreckt, können Sie nicht direkt zu einer bestimmten Seite wechseln. Die Dropdown-Liste für Seitennummern ist inaktiviert. Verwenden Sie stattdessen die Schaltflächen Nächste Seite und Vorherige Seite.

In den Aufbereitungsergebnissen für eine Spalte werden unvollständige Details für eine zugeordnete Datenklasse angezeigt

Wenn Sie auf die zugeordnete Datenklasse in der Registerkarte Governance der Spaltendetails in den Ergebnissen der Metadatenaufbereitung klicken, wird eine Vorschau der Datenklassendetails angezeigt. Die angezeigten Details sind jedoch unvollständig.

In einigen Fällen wird möglicherweise nicht das vollständige Protokoll eines in der Benutzerschnittstelle ausgeführten Jobs zur Metadatenanreicherung angezeigt.

Wenn die Liste der Fehler in einer Ausführung der Metadatenaufbereitung außergewöhnlich lang ist, wird möglicherweise nur ein Teil des Jobprotokolls in der Benutzerschnittstelle angezeigt.

Problemumgehung: Laden Sie das gesamte Protokoll herunter und analysieren Sie es in einem externen Editor.

Möglicherweise fehlen Schemainformationen, wenn Sie Aufbereitungsergebnisse filtern

Wenn Sie Assets oder Spalten in den Aufbereitungsergebnissen nach Quelleninformationen filtern, sind möglicherweise keine Schemainformationen verfügbar.

Problemumgehung: Führen Sie den Aufbereitungsjob erneut aus und wenden Sie den Filter Quelle erneut an.

Wenn Sie auf der Registerkarte Assets eines Assets für die Metadatenaufbereitung nach einem Asset suchen, werden möglicherweise keine Ergebnisse zurückgegeben. Beachten Sie die folgenden Einschränkungen:

  • Bei der Suche muss die Groß-/Kleinschreibung beachtet werden.
  • Das Ergebnis enthält nur Datensätze, die dem exakten Suchausdruck entsprechen oder mit dem Ausdruck beginnen.

Data Privacy

Wenn Sie Data Privacy verwenden, können die folgenden bekannten Probleme und Einschränkungen bei der Privatisierung von Daten auftreten.

Maskierungsflussjobs können fehlschlagen

Während eines Maskierungsflussjobs versucht Spark möglicherweise, alle Daten einer Datenquelle in den Speicher zu einzulesen. Dabei können Fehler auftreten, wenn nicht genügend Speicher für die erfolgreiche Ausführung des Jobs verfügbar ist. Es passen maximal ca. 12 GB an Daten in den größten bereitgestellten Spark-Verarbeitungsknoten.

Data Refinery

Bei der Arbeit mit Data Refinery treten möglicherweise die folgenden bekanntenProbleme und Einschränkungen auf, wenn Sie Daten optimieren:

Persänliche Berechtigungsnachweise werden für verbundene Datenassets in Data Refinery nicht unterstützt

Wenn Sie ein verbundenes Datenasset mit persönlichen Berechtigungsnachweisen erstellen, müssen andere Benutzer auf die folgende Problemumgehung zurückgreifen, um das verbundene Datenasset in Data Refinery zu verwenden.

Problemumgehung:

  1. Rufen Sie die Projektseite auf und klicken Sie auf den Link für das verbundene Datenasset, um die Vorschau zu öffnen.
  2. Geben Sie Berechtigungsnachweise ein.
  3. Öffnen Sie Data Refinery und verwenden Sie das authentifizierte verbundene Datenasset für eine Quelle oder ein Ziel.

Jobs in Data Refinery-Abläufen können in der Benutzerschnittstelle für neue Projekte nicht angezeigt werden

Wenn Sie in der Benutzerschnittstelle für neue Projekte arbeiten, haben Sie keine Option zum Anzeigen von Jobs über das Auswahlmenü in Data Refinery -Abläufen.

Problemumgehung: Öffnen Sie zum Anzeigen von Jobs in Data Refinery -Abläufeneinen Data Refinery -Ablauf. Klicken Sie auf das Symbol Jobs Symbol 'Job ausführen oder planen'und wählen Sie Jobs speichern und anzeigen aus. Eine Liste aller Jobs in Ihrem Projekt können Sie auf der Registerkarte Jobs anzeigen.

Probleme bei Watson Studio

Einige dieser Probleme können beim Einstieg in und Verwendung von Watson Studio auftreten.

Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden

Wenn Sie in der Benutzerschnittstelle für neue Projekte arbeiten, können Sie Federated Learning-Assets nicht über die Ansicht Alle Assets , die Suchergebnisse oder die Filterergebnisse Ihres Projekts durchsuchen.

Problemumgehung: Klicken Sie auf das Federated Learning-Asset, um das Tool zu öffnen, oder wechseln Sie zurück zu traditionellen Projekten, um weiterhin die vollständig integrierte Version von Federated Learning in Ihrem Projekt zu verwenden.

Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt

Wenn Sie ein Notebook in der Benutzerschnittstelle für neue Projekte duplizieren, wird das doppelte Notebook nicht mit einem eindeutigen Namen erstellt.

In älteren Konten können keine Assets erstellt werden

Wenn Sie in einer Instanz von Watson Studio arbeiten, die vor November 2017 aktiviert wurde, können Sie möglicherweise keine Betriebsassets wie Notebooks erstellen. Wenn die Schaltfläche Erstellen abgeblendet und inaktiviert bleibt, müssen Sie den Watson Studio-Service aus dem Servicekatalog zu Ihrem Konto hinzufügen.

Beim Starten von Watson Studio wird der Fehlercode 500 ('Interner Serverfehler') empfangen

In seltenen Fällen erhalten Sie beim Starten von Watson Studio möglicherweise einen internen HTTP-Serverfehler (500). Dies kann durch ein abgelaufenes Cookie verursacht werden, das für den Browser gespeichert ist. Um zu bestätigen, dass der Fehler durch ein veraltetes Cookie verursacht wurde, versuchen Sie, Watson Studio in einer privaten Browsersitzung (incognito) oder unter Verwendung eines anderen Browsers zu starten. Wenn der Start in einem neuen Browser erfolgreich ist, wurde der Fehler durch ein abgelaufenes Cookie verursacht. Es stehen eine Reihe von Lösungen zur Verfügung:

  1. Beenden Sie die Browseranwendung vollständig, um das Cookie zurückzusetzen. Sie müssen dabei die Anwendung schließen und erneut starten, nicht nur einfach das Browserfenster schließen. Starten Sie die Browseranwendung erneut und starten Sie Watson Studio, um das Sitzungscookie zurückzusetzen.
  2. Löschen Sie die IBM Cookies aus den Browsing-Daten und starten Sie Watson Studio. Sehen Sie sich zum Löschen von Cookies die Browsing-Daten oder Sicherheitsoptionen im Browser an. Beachten Sie, dass das Löschen aller IBM Cookies möglicherweise Auswirkungen auf andere IBM Anwendungen hat.

Wenn der 500-Fehler weiterhin auftritt, nachdem Sie einen dieser Lösungsschritte ausgeführt haben, überprüfen Sie die Statusseite der IBM Cloud-Vorfälle für Watson Studio. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support-Portal öffnen.

Fehler bei der Anmeldung

Beim Anmelden an Watson Studio wird möglicherweise diese Fehlernachricht angezeigt: 'Access Manager WebSEAL konnte Ihre Anfrage aufgrund eines unerwarteten Fehlers nicht abschließen.' Kehren Sie zu dataplatform.cloud.ibm.comzurück und melden Sie sich erneut an. In der Regel ist der zweite Anmeldeversucherfolgreich.

ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt

Einige TensorFlow-Bibliotheken sind vorinstalliert, aber wenn Sie versuchen,zusätzliche TensorFlow-Bibliotheken selbst zu installieren, tritt ein Fehler auf.

Das Herstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einerCodezelle länger als erwartet

Wenn Sie versuchen, die Verbindung zum Kernel wiederherzustellen und sofort eine Codezelle ausführen (bzw. wenn die Kernelverbindung während der Codeausführung wiederhergestellt wurde), stellt das Notebook die Verbindung zum Kernel nicht wieder her und für die Codezelle wird keine Ausgabe angezeigt. Sie müssen die Verbindung zum Kernel manuell wiederherstellen, indem Sie auf Kernel > Verbindung wiederherstellen klicken. Wenn der Kernel bereit ist, könnenSie versuchen, die Codezelle erneut auszuführen.

DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler

Möglicherweise tritt ein Apache Spark-Fehler auf, wenn Sie das vordefiniertesqlContext-Objekt in mehreren Notebooks verwenden. Erstellen Sie für jedes Notebookein neues sqlContext-Objekt. Weitere Informationen finden Sie in dieser Erläuterung zu Stack Overflow.

Spark-Tasks schlagen wegenfehlender AWS-Schlüssel möglicherweise fehl

Das erneute Starten eines fehlgeschlagenen Executors während eines Jobs, der Parqueton S3 liest oder schreibt, führt dazu, dass nachfolgende Tasks fehlschlagen, daAWS-Schlüssel fehlen.

Notebook-Kernel wirdbeim Öffnen eines Scala-Notebooks nicht gestartet

Möglicherweise stellen Sie fest, dass der Notebook-Kernel nicht ausgeführt wird, wennSie ein Scala-Notebook öffnen, das Spark-Bibliotheken und angepasste Bibliothekenverwendet. Diese Situation tritt auf, wenn Sie Scala-Bibliotheken verwenden, die nichtmit der von Ihnen verwendeten Spark-Version kompatibel sind, z. B. wenn Sie eine Scala2.10-JAR-Datei in einem Notebook mit Spark 2.1 verwenden.

Gehen Sie wie folgt vor, um diese Situation zu vermeiden:

  1. Stellen Sie sicher, dass Sie Scala 2.11-Bibliotheken mit Spark 2.1 verwenden.
  2. Führen Sie den folgenden Code in einem Python-Notebook aus, um die vorhandenenScala-Bibliotheken zu entfernen:

    !rm -rvf ~/data/libs/*
    
  3. Laden Sie die benötigten Bibliotheken neu.

Nachricht wegen fehlgeschlagener Verbindung

Wenn Ihr Kernel gestoppt wird, erfolgt keine automatische Speicherung Ihres Notebooksmehr. Klicken Sie zum Speichern des Notebooks manuell auf Datei > Speichern. Daraufhin müsste im Bereich für Kernelinformationen vor der Spark-Version die Nachricht Notebook gespeichert angezeigt werden. Wenn eine Nachricht darauf hinweist, dass der Kernel fehlgeschlagen ist, klicken Sie auf Kernel > Verbindung wiederherstellen, um Ihr Notebook wieder mit dem Kernel zu verbinden. Wenn Ihre Versuche zum erneuten Starten des Kernels erfolglos bleiben und das Notebook nicht gespeichert werden kann, laden Sie es herunter, um die Änderungen zu speichern. Klicken Sie dazu auf Datei > Herunterladen als > Notebook (.ipynb). Anschließend müssen Sie auf Basis Ihrer heruntergeladenenNotebookdatei ein neues Notebook erstellen.

Verbindung zu Amazon EMR nicht verfügbar

Wenn die Notebooksprache (z. B. Python 3.7 with Spark ) für das Notebook nicht angezeigt wird, konnte der Notebook-Kernel nicht gestartet werden.

Führen Sie den folgenden Befehl aus, um zu überprüfen, dass das Kernel-Gateway zu Amazon Elastic Map Reduce gestartet ist und die zugehörigen Endpunkte über das Internet zugänglich sind: curl https://<KG_EMR_URL>:<PORT>/api/kernelspecs -H "Authorization: token <Personal_access_token>".

Das Kernel Gateway ist zugänglich, wenn eine JSON-Liste mit den verfügbaren Kernels zurückgegeben wird. Ist dies nicht der Fall, müssen Sie das Jupyter Kernel Gateway unter Amazon EMR erneut installieren. Details finden Sie in Amazon EMR-Spark-Service hinzufügen.

Das Herstellen der Verbindung zum Notebook-Kernel beiAmazon EMR dauert länger als erwartet

Wenn Ihr Notebook-Kernel nicht gestartet wird, sind möglicherweise dieSpark-Ressourcen für Ihren Amazon Elastic Map Reduce-Service erschöpft. Sie können Spark-Ressourcen freigeben, indem Sie die Kernel der Notebooks stoppen, die Sie derzeit nicht verwenden. Alternativ können Sie alle Kernel stoppen, indem Sie das Kernel Gateway zum EMR-Cluster erneut starten:

  1. Öffnen Sie die Amazon EMR-Konsole und melden Sie sich beim Masterknoten desClusters an.
  2. Geben Sie wget https://raw.githubusercontent.com/IBMDataScience/kernelgateway-setup/master/install_kg_emr_bootstrap_script.sh ein, um die Kernel Gateway-Konfiguration herunterzuladen.
  3. Geben Sie chmod +x install_kg_emr_bootstrap_script.sh ein, um das Script auszuführen.
  4. Geben Sie ./install_kg_emr_bootstrap_script.sh --restart ein, um das Kernel Gateway erneut zu starten. Sie werden zur Eingabe derPortnummer aufgefordert.

Verbindung zu Amazon EMR nicht verfügbar

Wenn immer wieder Probleme bei der Verbindungsherstellung mit Amazon Elastic Map Reduce auftreten, sollten Sie das Kernel Gateway deinstallieren und anschließend erneut installieren:

  1. Öffnen Sie die Amazon EMR-Konsole und melden Sie sich beim Masterknoten desClusters an.
  2. Geben Sie wget https://raw.githubusercontent.com/IBMDataScience/kernelgateway-setup/master/install_kg_emr_bootstrap_script.sh ein, um die Kernel Gateway-Konfiguration herunterzuladen.
  3. Geben Sie chmod +x install_kg_emr_bootstrap_script.sh ein, um das Script auszuführen.
  4. Geben Sie ./install_kg_emr_bootstrap_script.sh --uninstall ein, um Kernel Gateway zu entfernen.
  5. Geben Sie ./install_kg_emr_bootstrap_script.sh ein, um das Kernel Gateway erneut zu installieren.

Verbindung zu IBM Analytics Engine-Service nichtverfügbar

Die IBM Analytics Engine-Serviceinstanz, die Sie für Ihr Notebook in Watson Studioausgewählt haben, wurde möglicherweise gelöscht oder wird möglicherweise nichtausgeführt. Prüfen Sie, ob die Serviceinstanz vorhanden und im IBMCloud-Dashboard bereitgestellt wird, indem Sie auf das Navigationsmenü in Watson Studioklicken und das Dashboard auswählen.

Fügen Sie einen neuen IBM Analytics Engine-Service über den Abschnitt IBM-Services auf der Seite Services und Integrationen hinzu.

'In Code einfügen' wird bei Notebooks in Spark 3.0- & Scala 2.12-Umgebungen nicht unterstützt

Sie können nicht auf Daten aus Projektassets in Scala-Notebooks zugreifen, die in Spark 3.0 & Scala 2.12-Umgebungen ausgeführt werden. Wenn Sie auf den Link In Code einfügen unter dem Assetnamen klicken und auswählen, dass Daten in einen SparkSession-Dataframe geladen werden sollen, wird ein Fehler zurückgegeben. Eine Problemumgehung ist die Umstellung auf die Verwendung einer Spark 2.4- & Scala 2.11-Umgebung.

Wenn Ihr Notebook Abschnitte enthält, die Sie beispielsweise über einen Einführungsabschnitt am oberen Rand des Notebooks verlinken, werden die Links zu diesen Abschnitten nicht funktionieren, wenn das Notizbuch im Modus 'Nur anzeigen' in Firefox geöffnet wurde. Wenn Sie das Notizbuch jedoch im Bearbeitungsmodus öffnen, werden diese Links funktionieren.

Verbindung zum Notebook-Kernel kann nicht hergestellt werden

Wenn Sie versuchen, ein Notebook auszuführen, und nach den Nachrichten Connecting to Kernelund Connection failed. Reconnecting eine Fehlernachricht für fehlgeschlagene Verbindung ausgegeben wird, kann dies bedeuten, dass die Ausführung des Notebooks durch Ihre Firewall blockiert wird.

Wenn Watson Studio hinter einer Firewall installiert ist, müssen Sie die WebSocket-Verbindung wss://dataplatform.cloud.ibm.com zu den Firewalleinstellungen hinzufügen. Die Aktivierung dieser WebSocket-Verbindung ist erforderlich, wenn Sie Notebooks und RStudio verwenden.

ERROR_RESOURCES_UNAVAILABLE beim Öffnen oder Bearbeiten eines Notebooks

Wenn beim Öffnen oder Bearbeiten eines Notebooks die Nachricht ERROR_RESOURCES_UNAVAILABLE angezeigt wird, weist die Ihrem Notebook zugeordnete Umgebungslaufzeit Ressourcenprobleme auf.

Um die Ursache zu finden, versuchen Sie, die Statusseite für IBM Cloud -Vorfälle zu überprüfen, die sich auf Watson Studioauswirken. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support Portal öffnen.

Probleme mit Watson Machine Learning

Bei der Arbeit mit IBM Watson Machine Learning-Komponenten (einschließlich ModelBuilder und Ablaufeditor) könnten manche der folgenden Probleme auftreten.

Anforderungen an die Region

Sie können Ihrem Watson Studio-Projekt nur dann eine Watson MachineLearning-Serviceinstanz zuordnen, wenn sich die Watson Machine Learning-Serviceinstanzund die Watson Studio-Instanz in derselben Region befinden.

Laufzeiteinschränkungen beiAblaufeditor

Watson Studio enthält in Peru, Ecuador, Kolumbien und Venezuela keineSPSS-Funktionalität.

Probleme bei der Bereitstellung

  • Eine Bereitstellung, die eine bestimmte Zeit lang inaktiv ist (24 Stunden für denkostenlosen Plan oder 120 Stunden für einen bezahlten Plan), wird automatisch in denHibernationsmodus versetzt. Bei Übergabe einer neuen Scoring-Anforderung wird dieBereitstellung reaktiviert und die Scoring-Anforderung verarbeitet. Je nachModellframework kann es nach der Aktivierung zu einer Verzögerung von bis zu 60Sekunden für die erste Scoring-Anforderung kommen.
  • Bei einigen Frameworks (z. B. SPSS Modeler) kann die erste Scoring-Anforderung fürein bereitgestelltes Modell nach der Hibernation zu einem Fehler 504 führen. Ist dies derFall, übergeben Sie die Anforderung erneut; nachfolgende Anforderungen sollten dannerfolgreich sein.

Bekannte Einschränkungen bei AutoAI

  • Derzeit werden bei AutoAI-Experimenten keine Doppelbytezeichensätzeunterstützt. AutoAI unterstützt nur CSV-Dateien mit ASCII-Zeichen. Benutzer müssen alle Nicht-ASCII-Zeichen im Dateinamen oder Inhalt konvertieren und Eingabedaten im CSV-Format (wie in diesem CSV-Standard definiert) bereitstellen.

  • Verwenden Sie die REST-API anstelle des Python-Clients, um programmgestützt miteinem AutoAI-Modell zu interagieren. Die APIs für den Python-Client, die für dieUnterstützung von AutoAI erforderlich sind, stehen zurzeit nicht zur Verfügung.

Datenmodul wird in IBM Federated Learning nicht gefunden

Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

Das Problem wird möglicherweise durch die Verwendung eines veralteten Datenhandlers verursacht. Überprüfen und aktualisieren Sie Ihren Datenhandler so, dass er der neuesten Spezifikation entspricht. Hier der Link zum neuesten MNIST-Datenhandler; oder stellen Sie sicher, dass die Beispielversionen in Ihrer Galerie auf dem neuesten Stand sind.

Pod-Erstellung schlägt bei erneuter Ausführung eines IBM Federated Learning-Experiments fehl

Möglicherweise wird die folgende Fehlernachricht angezeigt:

Pod creation failed because of insufficient resources that prevented scheduling.

Das Problem kann auf die Verwendung eines älteren Modells in einer neueren Softwarespezifikation zurückzuführen sein. Überprüfen und aktualisieren Sie Ihr Modell so, dass es der neuesten Spezifikation entspricht. Hier ist der Link zu den neuesten Frameworks und Python -Versionskompatibilität.

Probleme bei Cognos Dashboard Embedded

Bei der Arbeit mit Cognos Dashboard Embedded können die folgenden Probleme auftreten:

Cognos-Dashboards können nur Datenverbindungen verwenden, die mit Benutzername und Kennwortberechtigungsnachweisen erstellt wurden

Cognos Dashboard Embedded erfordert, dass Datenbankverbindungen und verbundene Datenassets, die als Datenquellen zu einem Dashboard hinzugefügt werden, Berechtigungsnachweise mit Benutzername und Kennwort enthalten müssen.

Werden diese Berechtigungsnachweise nicht in der Verbindung angegeben und wird stattdessen ein Token oder ein API-Schlüssel verwendet, kann Cognos Dashboard Embedded diese Verbindung oder das verbundene Datenasset nicht als Datenquelle verwenden.

Für optimierte Datenassets wird ein falscher Datentypangezeigt

Wenn Sie nach dem Importieren einer CSV-Datei auf die importierte Datei auf der Übersichtsseite des Datenassets klicken, werden manche Spaltentypen möglicherweise nicht ordnungsgemäß angezeigt. Beispiel: Für ein Dataset eines Unternehmensberichts mit einer Spalte namens Einnahmen, die den Umsatz des Unternehmens enthält, wird möglicherweise der Typ Zeichenfolge angezeigt und nicht wie erwartet ein numerischer Datentyp.

Nicht unterstützte Sonderzeichen in CSV-Dateien

Der Name der CSV-Quellendatei kann aus alphanumerischen Zeichen bestehen. Der CSV-Dateiname darf jedoch nicht die Sonderzeichen / : & < . \ "enthalten. Wenn der Dateiname diese Sonderzeichen enthält, werden sie aus dem Tabellennamen entfernt.

Wichtig: Die Namen der Tabellenspalten in der CSV-Quellendatei dürfen keine Sonderzeichen enthalten, die nicht unterstützt werden. Diese Zeichen können nicht entfernt werden, da der Name im Datenmodul mit dem Namen der Spalte in der Quellendatei übereinstimmen muss. Entfernen Sie in diesem Fall die Sonderzeichen aus den Spaltennamen, um die Verwendung Ihrer Daten in einem Dashboard zu ermöglichen.

In CSV-Dateien sind Zeichenfolgewerte auf 128 Zeichen begrenzt.

Zeichenfolgewerte in einer Spalte in der CSV-Quellendatei dürfen maximal 128 Zeichen lang sein. Wenn eine CSV-Datei Zeichenfolgespalten mit längeren Werten enthält, wird eine Fehlernachricht angezeigt.

Einschränkungen beim Datumsformat in CSV-Dateien

Für CSV-Dateien, die in Visualisierungen verwendet werden, gelten Datumsformateinschränkungen. Informationen hierzu finden Sie in Probleme bei der Verwendung von Daten aus CSV-Dateien in Cognos Dashboard Embedded lösen.

Datentabelle in einer Visualisierung kann nicht ersetzt werden

Wenn Sie eine Visualisierung zu einem Dashboard hinzufügen, können Sie der Visualisierung keine Datentabelle hinzufügen, wenn Sie zuvor Datenfelder aus einer anderen Datentabelle hinzugefügt (und danach entfernt) haben. Diese Einschränkung gilt für Db2, CSV-Tabellen und andere Datenquellen.

Nicht unterstützte Cognos Analytics-Funktionen

Folgende Funktionen von IBM Cognos Analytics werden in Dashboards nicht unterstützt:

  • Datengruppierung
  • Angepasste Farbpaletten
  • Angepasste Visualisierungen
  • Assistent
  • Vorhersage
  • Insights für die Visualisierung
  • Jupyter-Notebook-Visualisierung
  • Erweiterte Datenanalyse

SPSS Modeler-Probleme

Bei der Arbeit in SPSS Modeler können Sie auf einige der folgenden Probleme stoßen.

Fehler beim Stoppen eines aktiven Flusses

Beim Ausführen eines SPSS Modeler-Ablaufs tritt möglicherweise ein Fehler auf, wenn Sie versuchen, den Ablauf über die Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts zu stoppen. Um die SPSS Modeler-Laufzeit und den CUH-Verbrauch vollständig zu stoppen, schließen Sie die Browserregisterkarte(n), in der/denen Sie den Ablauf geöffnet haben.

Importierte Data-Asset-Exportknoten werden manchmal nicht ausgeführt

Wenn Sie einen neuen Ablauf erstellen, indem Sie einen SPSS Modeler-Datenstrom (.str -Datei) importieren, den Exportknoten migrieren und anschließend den resultierenden Datenasset-Exportknoten ausführen, kann die Ausführung fehlschlagen. Gehen Sie wie folgt vor, um dieses Problem zu umgehen: Führen Sie den Knoten erneut aus, ändern Sie den Ausgabenamen und ändern Sie die Option Wenn das Dataset bereits vorhanden ist in den Knoteneigenschaften. Führen Sie den Knoten anschließend erneut aus.

Datenvorschau kann fehlschlagen, wenn Tabellenmetadaten geändert wurden

In einigen Fällen kann die Datenvorschau bei der Verwendung des Datenasset-Importknotens zum Importieren von Daten aus einer Verbindung einen Fehler zurückgeben, wenn sich die zugrunde liegenden Tabellenmetadaten (Datenmodell) geändert haben. Erstellen Sie den Datenassetknoten erneut, um das Problem zu beheben.

Die Ausgabe kann nach der Ausführung eines Erweiterungsausgabeknotens nicht angezeigt werden.

Bei der Ausführung eines Erweiterungsausgabeknotens mit der Option Ausgabe in Datei gibt die resultierende Ausgabedatei einen Fehler zurück, wenn Sie versuchen, die Datei über die Anzeige 'Ausgaben' zu öffnen.

Excel-Daten aus COS-Verbindungen können nicht angezeigt werden

Derzeit können Sie keine Vorschau für .xls- oder .xlsx-Daten aus einer COS-Verbindung anzeigen.

Zahlen, die als Zeichenfolge interpretiert werden

Jede Zahl mit einer Genauigkeit größer-gleich 32 und einer Anzahl der Kommastellen gleich 0 wird als Zeichenfolge interpretiert. Wenn Sie dieses Verhalten ändern müssen, können Sie das Feld stattdessen mithilfe eines Füllerknotens mit dem Ausdruck 'to_real(@FIELD)' in eine reelle Zahl umsetzen.

Superknoten mit Importknoten

Wenn Ihr Ablauf über einen Superknoten verfügt, der einen Importknoten enthält, wird das Eingabeschema möglicherweise nicht ordnungsgemäß festgelegt, wenn Sie das Modell mit der Option Scoring-Verzweigung speichern. Um dieses Problem zu umgehen, erweitern Sie den Superknoten, bevor Sie speichern.

KDE-Knoten mit nicht unterstützter Python-Version

Wenn Ihr Ablauf einen alten KDE-Knoten enthält, wird möglicherweise ein Fehler ausgegeben, wenn Sie ihn mit einem Python-Paket über das Modell ausführen, das nicht mehr unterstützt wird. Entfernen Sie in einem solchen Fall den alten KDE-Knoten und fügen Sie einen neuen Knoten hinzu.

In eine SAV-Datei exportieren

Wenn Sie den Export in eine SPSS Statistics-SAV-Datei (.sav) mithilfe eines Data Asset Export-Knotens durchführen, funktioniert die Option Datenasset ersetzen nicht, wenn das Eingabeschema nicht mit dem Ausgabeschema übereinstimmt. Das Schema der vorhandenen Datei, die ersetzt werden soll, muss übereinstimmen.

Trennzeichen und Dezimaloptionen

Sie können Optionen für Feldtrennzeichen und Dezimalzeichen nur für Datenasset-Knoten (.csv) festlegen. Diese Optionen sind gegenwärtig nicht für Connections verfügbar.

Abläufe auf einer Watson Machine Learning Server-Instanz ausführen

Wenn Sie Abläufe auf einer Watson Machine Learning Server-Instanz ausführen, können die folgenden Probleme auftreten:

  • Wenn ein Ablauf auf eine Verbindung verweist, muss die Verbindung sowohl auf der lokalen Maschine (zum Konfigurieren der Verbindung) als auch auf der fernen Watson Machine Learning Server-Instanz (zum Ausführen des Ablaufs) zugänglich sein.
  • Wenn ein Fluss Text Analytics-Knoten enthält, können Sie ihn nicht auf einem Watson Machine Learning Server ausführen. In diesem Fall muss der Fluss lokal ausgeführt werden.
  • Importieren Sie eine Datenstromdatei (.str), für die eine Migration erforderlich ist, nicht in einen Ablauf, der auf der Watson Machine Learning Server-Instanz ausgeführt wird.

Migration von Importknoten

Wenn Sie einen Datenstrom (.str) in Ihren Ablauf importieren, der in SPSS Modeler Desktop erstellt wurde und mindestens einen nicht unterstützten Importknoten enthält, werden Sie aufgefordert, die Importknoten in Datenassets zu migrieren. Falls der Datenstrom mehrere Importknoten enthält, die dieselbe Datendatei verwenden, müssen Sie vor der Migration zunächst diese Datei als Datenasset zu Ihrem Projekt hinzufügen, weil die Migration dieselbe Datei nicht auf mehrere Importknoten hochladen kann. Nachdem Sie das Datenasset zu Ihrem Projekt hinzugefügt haben, öffnen Sie den Ablauf erneut und setzen Sie die Migration unter Verwendung des neuen Datenassets fort.

Text Analytics

Die Textanalyseknoten haben die folgenden Probleme:

  • Wenn Sie ein neues Modell aus der Text Analytics Workbench generieren, ist das neue Modell mit keinem Knoten verbunden. Wenn Sie beispielsweise zehn Mal auf Neues Modell generieren klicken, werden zehn neue Modellierungsknoten generiert.
  • Die Bearbeitung linguistischer Ressourcen ist derzeit nicht verfügbar.
  • Wenn ein Fluss Text Analytics-Knoten enthält, können Sie ihn nicht auf einem Watson Machine Learning Server ausführen.
  • Wenn Sie in Text Analytics Workbench auf Neues Modell generierenklicken, wird in Ihrem Ablauf ein neues Modellnugget erstellt. Wenn Sie mehrere Modelle erstellen, haben diese alle denselben Namen, sodass es möglicherweise schwer ist, sie voneinander zu unterscheiden. Eine Empfehlung besteht darin, Modelle durch Annotationen zu identifizieren (doppelklicken Sie auf ein Modellnugget, um die zugehörigen Eigenschaften zu öffnen, und rufen Sie anschließend Annotationen auf).
  • Nachdem Sie die Text Analytics Workbench geschlossen haben, werden alle von Ihnen geänderten Filter-oder Kategorieerstellungseinstellungen nicht wie vorgesehen auf dem Knoten gespeichert.

Übergeordnetes Thema: Cloud Pak for Data as a Service