Bekannte Probleme und Einschränkungen
Die folgenden bekannten Probleme und Einschränkungen gelten für Cloud Pak for Data as a Service.
- Regionale Einschränkungen
- Watson Knowledge Catalog
- Maskierungsablauf
- Data Refinery
- Watson Query
- Watson Studio
- Watson Machine Learning
- Cognos Dashboard Embedded
- Watson OpenScale
- SPSS Modeler
Liste der Probleme für Watson Knowledge Catalog
- Daten werden in einigen Projekttools nicht maskiert
- Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar
- Mitarbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen
- Einschränkungen bei ObjectStorage-Verbindungen
- Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl
- Nach der Katalogerstellung können Richtlinien nicht aktiviert werden
- Assets werden blockiert, wenn Auswertung fehlschlägt
- Nur über die Schaltfläche 'Zurück' des Browsers gelangen Sie von der Seite für Standardeinstellungen zurück zum Asset für Metadatenaufbereitung
- Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet
- Filteroptionen in den Ergebnissen der Metadatenaufbereitung werden möglicherweise nicht sofort aktualisiert
- Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden
- Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden
- In den Aufbereitungsergebnissen für eine Spalte werden unvollständige Details für eine zugeordnete Datenklasse angezeigt
- In einigen Fällen wird möglicherweise nicht das vollständige Protokoll einer Jobausführung für die Metadatenaufbereitung in der Benutzerschnittstelle angezeigt
- Beim Filtern von Aufbereitungsergebnissen fehlen möglicherweise Schemainformationen
- Probleme bei der Suche auf der Registerkarte 'Assets' eines Assets für die Metadatenaufbereitung
Liste der Probleme mit Maskierungsabläufen
Liste der Probleme für Data Refinery
- Persönliche Berechtigungsnachweise werden für verbundene Datenassets in Data Refinery nicht unterstützt
- Jobs in Data Refinery-Abläufen können in der Benutzerschnittstelle für neue Projekte nicht angezeigt werden
Liste der Probleme für Watson Query
Liste der Probleme für Watson Studio
- Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden
- Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt
- In älteren Konten können keine Assets erstellt werden
- Fehler bei der Anmeldung
- Beim Starten von Watson Studio wird der Fehlercode 500 ('Interner Serverfehler') empfangen
- ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt
- DasHerstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einer Codezellelänger als erwartet
- DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler
- Spark-Tasksschlagen wegen fehlender AWS-Schlüssel möglicherweise fehl
- Notebook-Kernelwird beim Öffnen eines Scala-Notebooks nicht gestartet
- Nachricht wegen fehlgeschlagenerVerbindung
- Verbindung zu Notebook-Kernel bei Amazon EMRfehlgeschlagen
- Das Herstellen der Verbindung zumNotebook-Kernel bei Amazon EMR dauert länger als erwartet
- Verbindung zu Amazon EMR nichtverfügbar
- Verbindung zum IBM AnalyticsEngine-Service nicht verfügbar
- 'In Code einfügen' wird bei Notebooks in Spark 3.0- & Scala 2.12-Umgebungen nicht unterstützt
- Hyperlinks zu Notebook-Abschnitten sind im Voranzeigemodus nicht funktionsfähig
- Verbindung zum Notebook-Kernel kann nicht hergestellt werden
- ERROR_RESOURCES_UNAVAILABLE beim Öffnen oder Bearbeiten eines Notebooks
Liste der Probleme für Watson Machine Learning
- Anforderungen an die Region
- Laufzeiteinschränkungen beiAblaufeditor
- Probleme bei der Bereitstellung
- Bekannte Einschränkungen bei AutoAI
- Datenmodul wurde in IBM Federated Learning nicht gefunden
- Pod-Erstellung schlägt bei erneuter Ausführung eines IBM Federated Learning-Experiments fehl
Liste der Probleme für Cognos Dashboard Embedded
- Cognos-Dashboards können nur Datenverbindungen verwenden, die mit Berechtigungsnachweisen für Benutzername und Kennwort erstellt wurden
- Für optimierte Datenassets wird ein falscherDatentyp angezeigt
- Sonderzeichen in CSV-Dateien werden nicht unterstützt
- Zeichenfolgewerte in CSV-Dateien werden auf 128 Zeichenbegrenzt
- Einschränkungen beim Datumsformat in CSV-Dateien
- Datentabelle in einer Visualisierung kann nicht ersetzt werden
- Cognos Analytics-Funktionen werden nicht unterstützt
Liste der Probleme für Watson OpenScale
Liste der Probleme für SPSS Modeler
- Fehler bei dem Versuch, einen aktiven Fluss zu stoppen
- Importierte Data-Asset-Exportknoten können manchmal nicht ausgeführt werden
- Datenvorschau schlägt möglicherweise fehl, wenn Tabellenmetadaten geändert werden
- Die Ausgabe kann nach der Ausführung eines Erweiterungsausgabeknotens nicht angezeigt werden
- Excel-Daten aus COS-Verbindungen können nicht angezeigt werden
- Zahlen als Zeichenfolge interpretiert
- Superknoten mit Importknoten
- In eine SAV-Datei exportieren
- Nachrichtenflüsse auf einem Watson-Machine-Learning-Server ausführen
- Migration von Importknoten
- Textanalyseeinstellungen werden nicht gespeichert
- Unicode-Zeichen für Knoten zusammenführen
Watson Knowledge Catalog
Bei der Arbeit mit Watson Knowledge Catalog treten möglicherweise die folgendenbekannten Probleme und Einschränkungen auf, wenn Sie Kataloge verwenden:
Daten werden in einigen Projekttools nicht maskiert
Wenn Sie ein verbundenes Datenasset, das über maskierte Spalten aus einem Katalog verfügt, zu einem Projekt hinzufügen, bleiben die Spalten maskiert, wenn Sie die Daten anzeigen und wenn Sie die Daten im Data Refinery-Tool verfeinern. Bei Verwendung anderer Tools in den Projekten bleibt die Maskierung beim Zugriff auf die Daten über eine Verbindung jedoch nicht erhalten. Wenn Sie beispielsweise verbundene Daten in ein Notebook, einen DataStage -Ablauf, ein Dashboard oder andere Projekttools laden, greifen Sie über eine direkte Verbindung auf die Daten zu und umgehen die Maskierung.
Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar
Wenn keine vordefinierten Klassifikationen oder Datenklassen angezeigt werden, reinitialisieren Sie Ihren Tenant mit dem folgenden API-Aufruf:
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
Mitarbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen
Geben Sie beim Hinzufügen von Mitarbeitern zum Katalog die E-Mail-Adressen vollständig in Kleinbuchstaben ein. E-Mail-Adressen in Groß-/Kleinschreibung werden nicht unterstützt.
Einschränkungen bei ObjectStorage-Verbindungen
Bei einer Cloud Object Storage-Verbindung (S3-API) oder einer Cloudant-Verbindung wirdder Ordner selbst als untergeordnetes Asset aufgeführt.
Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl
Es kann ein Fehler auftreten, wenn mehrere Benutzer gleichzeitig Verbindungsoperationen ausführen. Die Fehlernachricht kann unterschiedlich lauten.
Die Durchsetzung von Datenschutzregeln kann nach der Katalogerstellung nicht aktiviert werden
Sie können die Durchsetzung von Datenschutzregeln nicht aktivieren, nachdem Sie einen Katalog erstellt haben. Wenn Sie Datenschutzregeln auf Assets in einem Katalog anwenden möchten, müssen Sie die Durchsetzung während der Katalogerstellung aktivieren.
Assets werden blockiert, wenn Auswertung fehlschlägt
Die folgenden Einschränkungen gelten für Datenassets in einem Katalog mit Richtliniendurchsetzung: Dateibasierte Datenassets mit Header dürfen weder doppelten Spaltennamen, noch einen Punkt (.) oder einfache Anführungszeichen (') in einem Spaltennamen enthalten.
Wenn die Auswertung fehlschlägt, wird das Asset für alle Benutzer mit Ausnahme des Asseteigners blockiert. Allen anderen Benutzern wird eine Fehlernachricht angezeigt, die besagt, dass das Datenasset nicht angezeigt werden kann, weil die Auswertung fehlgeschlagen ist und das Asset blockiert ist.
Nur über die Schaltfläche 'Zurück' des Browsers gelangen Sie von der Seite für Standardeinstellungen zurück zum Asset für Metadatenaufbereitung
Wenn Sie die Seite Standardeinstellungen in einem Asset für Metadatenaufbereitung öffnen, können Sie nicht über eine Schaltfläche in der Benutzerschnittstelle des Produkts oder über den Navigationspfad zum Asset zurückkehren. Verwenden Sie die Schaltfläche 'Zurück' im Browser, um zum Asset zurückzukehren.
Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet
Beim Filtern der Ergebnisse der Metadatenaufbereitung in der Registerkarte Spalte wird die Groß-/Kleinschreibung nur bei den Einträgen für Datenklasse beachtet. Die Einträge in den Filtern für Geschäftsbegriffe, Schemas und Assets werden in Kleinschreibung dargestellt, unabhängig von der tatsächlichen Schreibweise für den jeweiligen Wert.
Filteroptionen in den Ergebnissen der Metadatenaufbereitung werden möglicherweise nicht sofort aktualisiert
Wenn Sie Assets hinzufügen, neue Datenklassen oder Geschäftsbegriffe zuordnen oder Geschäftsbegriffe entfernen, werden die zugehörigen Filter nicht sofort aktualisiert. Um das Problem zu umgehen, aktualisieren Sie den Browser, damit die aktualisierten Filterlisten angezeigt werden.
Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden
Nach dem Bearbeiten der Aufbereitungsoptionen für eine Metadatenaufbereitung, die mindestens einmal ausgeführt wurde, werden in den Assetdetails möglicherweise die aktualisierten Optionen angezeigt und nicht die Optionen, die bei der letzten Ausführung der Metadatenaufbereitung angewendet wurden.
Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden
Wenn sich die Anzahl der Assets oder Spalten in einem Asset für Metadatenaufbereitung über mehrere Seiten erstreckt, können Sie nicht direkt zu einer bestimmten Seite wechseln. Die Dropdown-Liste für Seitennummern ist inaktiviert. Verwenden Sie stattdessen die Schaltflächen Nächste Seite und Vorherige Seite.
In den Aufbereitungsergebnissen für eine Spalte werden unvollständige Details für eine zugeordnete Datenklasse angezeigt
Wenn Sie auf die zugeordnete Datenklasse in der Registerkarte Governance der Spaltendetails in den Ergebnissen der Metadatenaufbereitung klicken, wird eine Vorschau der Datenklassendetails angezeigt. Die angezeigten Details sind jedoch unvollständig.
In einigen Fällen wird möglicherweise nicht das vollständige Protokoll eines Jobs zur Metadatenaufbereitung in der Benutzerschnittstelle angezeigt.
Wenn die Liste der Fehler in einer Ausführung der Metadatenaufbereitung außergewöhnlich lang ist, wird möglicherweise nur ein Teil des Jobprotokolls in der Benutzerschnittstelle angezeigt.
Problemumgehung: Laden Sie das gesamte Protokoll herunter und analysieren Sie es in einem externen Editor.
Möglicherweise fehlen Schemainformationen, wenn Sie Aufbereitungsergebnisse filtern
Wenn Sie Assets oder Spalten in den Aufbereitungsergebnissen nach Quelleninformationen filtern, sind möglicherweise keine Schemainformationen verfügbar.
Problemumgehung: Führen Sie den Aufbereitungsjob erneut aus und wenden Sie den Filter Quelle erneut an.
Probleme mit der Suche auf der Registerkarte 'Assets' eines Assets für die Metadatenaufbereitung
Wenn Sie auf der Registerkarte Assets eines Assets für die Metadatenaufbereitung nach einem Asset suchen, werden möglicherweise keine Ergebnisse zurückgegeben. Beachten Sie die folgenden Einschränkungen:
- Bei der Suche muss die Groß-/Kleinschreibung beachtet werden.
- Das Ergebnis enthält nur Datensätze, die dem exakten Suchausdruck entsprechen oder mit dem Ausdruck beginnen.
Regeln, die für Spalten des Typs 'Zeit' in Datenassets aus der Datenquelle Amazon Redshift ausgeführt werden, geben keine ordnungsgemäßen Ergebnisse zurück
Für Datenassets aus Amazon Redshift -Datenquellen werden Spalten des Typs 'Zeit' mit dem Typ 'Zeitmarke' importiert. Sie können keine zeitspezifischen Datenqualitätsregeln auf solche Spalten anwenden.
Maskierungsablauf
Wenn Sie den Maskierungsablauf verwenden, können diese bekannten Probleme und Einschränkungen auftreten, wenn Sie Daten privatisieren.
Maskierungsflussjobs können fehlschlagen
Während eines Maskierungsflussjobs versucht Spark möglicherweise, alle Daten einer Datenquelle in den Speicher zu einzulesen. Dabei können Fehler auftreten, wenn nicht genügend Speicher für die erfolgreiche Ausführung des Jobs verfügbar ist. Es passen maximal ca. 12 GB an Daten in den größten bereitgestellten Spark-Verarbeitungsknoten.
Data Refinery
Bei der Arbeit mit Data Refinery treten möglicherweise die folgenden bekanntenProbleme und Einschränkungen auf, wenn Sie Daten optimieren:
Persänliche Berechtigungsnachweise werden für verbundene Datenassets in Data Refinery nicht unterstützt
Wenn Sie ein verbundenes Datenasset mit persönlichen Berechtigungsnachweisen erstellen, müssen andere Benutzer auf die folgende Problemumgehung zurückgreifen, um das verbundene Datenasset in Data Refinery zu verwenden.
Problemumgehung:
- Rufen Sie die Projektseite auf und klicken Sie auf den Link für das verbundene Datenasset, um die Vorschau zu öffnen.
- Geben Sie Berechtigungsnachweise ein.
- Öffnen Sie Data Refinery und verwenden Sie das authentifizierte verbundene Datenasset für eine Quelle oder ein Ziel.
Jobs in Data Refinery-Abläufen können in der Benutzerschnittstelle für neue Projekte nicht angezeigt werden
Wenn Sie in der Benutzerschnittstelle für neue Projekte arbeiten, haben Sie nicht die Möglichkeit, Jobs über das Auswahlmenü in Data Refinery -Abläufenanzuzeigen.
Problemumgehung: Um Jobs in Data Refinery -Flowsanzuzeigen, öffnen Sie einen Data Refinery -Flow, klicken auf das Symbol Jobs und wählen Speichern und -Jobs anzeigen aus. Eine Liste aller Jobs in Ihrem Projekt können Sie auf der Registerkarte Jobs anzeigen.
Probleme bei Watson Studio
Einige dieser Probleme können beim Einstieg in und Verwendung von Watson Studio auftreten.
Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden
Wenn Sie in der Benutzerschnittstelle für neue Projekte arbeiten, können Sie Federated Learning-Assets nicht über die Ansicht Alle Assets , die Suchergebnisse oder die Filterergebnisse Ihres Projekts durchsuchen.
Problemumgehung: Klicken Sie auf das Federated Learning-Asset, um das Tool zu öffnen, oder wechseln Sie zurück zu traditionellen Projekten, um weiterhin die vollständig integrierte Version von Federated Learning in Ihrem Projekt zu verwenden.
Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt
Wenn Sie ein Notebook in der Benutzerschnittstelle für neue Projekte duplizieren, wird das doppelte Notebook nicht mit einem eindeutigen Namen erstellt.
In älteren Konten können keine Assets erstellt werden
Wenn Sie in einer Instanz von Watson Studio arbeiten, die vor November 2017 aktiviert wurde, können Sie möglicherweise keine Betriebsassets wie Notebooks erstellen. Wenn die Schaltfläche Erstellen abgeblendet und inaktiviert bleibt, müssen Sie den Watson Studio-Service aus dem Servicekatalog zu Ihrem Konto hinzufügen.
Beim Starten von Watson Studio wird der Fehlercode 500 ('Interner Serverfehler') empfangen
In seltenen Fällen erhalten Sie beim Starten von Watson Studio möglicherweise einen internen HTTP-Serverfehler (500). Dies kann durch ein abgelaufenes Cookie verursacht werden, das für den Browser gespeichert ist. Um zu bestätigen, dass der Fehler durch ein veraltetes Cookie verursacht wurde, versuchen Sie, Watson Studio in einer privaten Browsersitzung (incognito) oder unter Verwendung eines anderen Browsers zu starten. Wenn der Start in einem neuen Browser erfolgreich ist, wurde der Fehler durch ein abgelaufenes Cookie verursacht. Es stehen eine Reihe von Lösungen zur Verfügung:
- Beenden Sie die Browseranwendung vollständig, um das Cookie zurückzusetzen. Sie müssen dabei die Anwendung schließen und erneut starten, nicht nur einfach das Browserfenster schließen. Starten Sie die Browseranwendung erneut und starten Sie Watson Studio, um das Sitzungscookie zurückzusetzen.
- Löschen Sie die IBM Cookies aus den Browsing-Daten und starten Sie Watson Studio. Sehen Sie sich zum Löschen von Cookies die Browsing-Daten oder Sicherheitsoptionen im Browser an. Beachten Sie, dass das Löschen aller IBM Cookies möglicherweise Auswirkungen auf andere IBM Anwendungen hat.
Wenn der 500-Fehler weiterhin auftritt, nachdem Sie einen dieser Lösungsschritte ausgeführt haben, überprüfen Sie die Statusseite der IBM Cloud-Vorfälle für Watson Studio. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support-Portal öffnen.
Fehler bei der Anmeldung
Beim Anmelden an Watson Studio wird möglicherweise diese Fehlernachricht angezeigt: 'Access Manager WebSEAL konnte Ihre Anfrage aufgrund eines unerwarteten Fehlers nicht abschließen.' Kehren Sie zu dataplatform.cloud.ibm.comzurück und melden Sie sich erneut an. In der Regel ist der zweite Anmeldeversucherfolgreich.
ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt
Einige TensorFlow-Bibliotheken sind vorinstalliert, aber wenn Sie versuchen,zusätzliche TensorFlow-Bibliotheken selbst zu installieren, tritt ein Fehler auf.
Das Herstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einerCodezelle länger als erwartet
Wenn Sie versuchen, die Verbindung zum Kernel wiederherzustellen und sofort eine Codezelle ausführen (bzw. wenn die Kernelverbindung während der Codeausführung wiederhergestellt wurde), stellt das Notebook die Verbindung zum Kernel nicht wieder her und für die Codezelle wird keine Ausgabe angezeigt. Sie müssen die Verbindung zum Kernel manuell wiederherstellen, indem Sie auf Kernel > Verbindung wiederherstellen klicken. Wenn der Kernel bereit ist, könnenSie versuchen, die Codezelle erneut auszuführen.
DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler
Möglicherweise tritt ein Apache Spark-Fehler auf, wenn Sie das vordefiniertesqlContext-Objekt in mehreren Notebooks verwenden. Erstellen Sie für jedes Notebookein neues sqlContext-Objekt. Weitere Informationen finden Sie in dieser Erläuterung zu Stack Overflow.
Spark-Tasks schlagen wegenfehlender AWS-Schlüssel möglicherweise fehl
Das erneute Starten eines fehlgeschlagenen Executors während eines Jobs, der Parqueton S3 liest oder schreibt, führt dazu, dass nachfolgende Tasks fehlschlagen, daAWS-Schlüssel fehlen.
Notebook-Kernel wirdbeim Öffnen eines Scala-Notebooks nicht gestartet
Möglicherweise stellen Sie fest, dass der Notebook-Kernel nicht ausgeführt wird, wennSie ein Scala-Notebook öffnen, das Spark-Bibliotheken und angepasste Bibliothekenverwendet. Diese Situation tritt auf, wenn Sie Scala-Bibliotheken verwenden, die nichtmit der von Ihnen verwendeten Spark-Version kompatibel sind, z. B. wenn Sie eine Scala2.10-JAR-Datei in einem Notebook mit Spark 2.1 verwenden.
Gehen Sie wie folgt vor, um diese Situation zu vermeiden:
- Stellen Sie sicher, dass Sie Scala 2.11-Bibliotheken mit Spark 2.1 verwenden.
Führen Sie den folgenden Code in einem Python-Notebook aus, um die vorhandenenScala-Bibliotheken zu entfernen:
!rm -rvf ~/data/libs/*
Laden Sie die benötigten Bibliotheken neu.
Nachricht wegen fehlgeschlagener Verbindung
Wenn Ihr Kernel gestoppt wird, erfolgt keine automatische Speicherung Ihres Notebooksmehr. Klicken Sie zum Speichern des Notebooks manuell auf Datei > Speichern. Daraufhin müsste im Bereich für Kernelinformationen vor der Spark-Version die Nachricht Notebook gespeichert angezeigt werden. Wenn eine Nachricht darauf hinweist, dass der Kernel fehlgeschlagen ist, klicken Sie auf Kernel > Verbindung wiederherstellen, um Ihr Notebook wieder mit dem Kernel zu verbinden. Wenn Ihre Versuche zum erneuten Starten des Kernels erfolglos bleiben und das Notebook nicht gespeichert werden kann, laden Sie es herunter, um die Änderungen zu speichern. Klicken Sie dazu auf Datei > Herunterladen als > Notebook (.ipynb). Anschließend müssen Sie auf Basis Ihrer heruntergeladenenNotebookdatei ein neues Notebook erstellen.
Verbindung zu Amazon EMR nicht verfügbar
Wenn die Notebooksprache, z. B. Python 3.7 with Spark
, für das Notebook nicht angezeigt wird, konnte der Notebook-Kernel nicht gestartet werden.
Führen Sie den folgenden Befehl aus, um zu überprüfen, dass das Kernel-Gateway zu Amazon Elastic Map Reduce gestartet ist und die zugehörigen Endpunkte über das Internet zugänglich sind: curl https://<KG_EMR_URL>:<PORT>/api/kernelspecs -H "Authorization: token <Personal_access_token>"
.
Das Kernel Gateway ist zugänglich, wenn eine JSON-Liste mit den verfügbaren Kernels zurückgegeben wird. Ist dies nicht der Fall, müssen Sie das Jupyter Kernel Gateway unter Amazon EMR erneut installieren. Details finden Sie in Amazon EMR-Spark-Service hinzufügen.
Das Herstellen der Verbindung zum Notebook-Kernel beiAmazon EMR dauert länger als erwartet
Wenn Ihr Notebook-Kernel nicht gestartet wird, sind möglicherweise dieSpark-Ressourcen für Ihren Amazon Elastic Map Reduce-Service erschöpft. Sie können Spark-Ressourcen freigeben, indem Sie die Kernel der Notebooks stoppen, die Sie derzeit nicht verwenden. Alternativ können Sie alle Kernel stoppen, indem Sie das Kernel Gateway zum EMR-Cluster erneut starten:
- Öffnen Sie die Amazon EMR-Konsole und melden Sie sich beim Masterknoten desClusters an.
- Geben Sie
wget https://raw.githubusercontent.com/IBMDataScience/kernelgateway-setup/master/install_kg_emr_bootstrap_script.sh
ein, um die Kernel Gateway-Konfiguration herunterzuladen. - Geben Sie
chmod +x install_kg_emr_bootstrap_script.sh
ein, um das Script auszuführen. - Geben Sie
./install_kg_emr_bootstrap_script.sh --restart
ein, um das Kernel Gateway erneut zu starten. Sie werden zur Eingabe derPortnummer aufgefordert.
Verbindung zu Amazon EMR nicht verfügbar
Wenn immer wieder Probleme bei der Verbindungsherstellung mit Amazon Elastic Map Reduce auftreten, sollten Sie das Kernel Gateway deinstallieren und anschließend erneut installieren:
- Öffnen Sie die Amazon EMR-Konsole und melden Sie sich beim Masterknoten desClusters an.
- Geben Sie
wget https://raw.githubusercontent.com/IBMDataScience/kernelgateway-setup/master/install_kg_emr_bootstrap_script.sh
ein, um die Kernel Gateway-Konfiguration herunterzuladen. - Geben Sie
chmod +x install_kg_emr_bootstrap_script.sh
ein, um das Script auszuführen. - Geben Sie
./install_kg_emr_bootstrap_script.sh --uninstall
ein, um Kernel Gateway zu entfernen. - Geben Sie
./install_kg_emr_bootstrap_script.sh
ein, um das Kernel Gateway erneut zu installieren.
Verbindung zu IBM Analytics Engine-Service nichtverfügbar
Die IBM Analytics Engine-Serviceinstanz, die Sie für Ihr Notebook in Watson Studioausgewählt haben, wurde möglicherweise gelöscht oder wird möglicherweise nichtausgeführt. Prüfen Sie, ob die Serviceinstanz vorhanden und im IBMCloud-Dashboard bereitgestellt wird, indem Sie auf das Navigationsmenü in Watson Studioklicken und das Dashboard auswählen.
Fügen Sie einen neuen IBM Analytics Engine-Service über den Abschnitt IBM-Services auf der Seite Services und Integrationen hinzu.
'In Code einfügen' wird bei Notebooks in Spark 3.0- & Scala 2.12-Umgebungen nicht unterstützt
Sie können nicht auf Daten aus Projektassets in Scala-Notebooks zugreifen, die in Spark 3.0 & Scala 2.12-Umgebungen ausgeführt werden. Wenn Sie auf den Link In Code einfügen unter dem Assetnamen klicken und auswählen, dass Daten in einen SparkSession-Dataframe geladen werden sollen, wird ein Fehler zurückgegeben. Eine Problemumgehung ist die Umstellung auf die Verwendung einer Spark 2.4- & Scala 2.11-Umgebung.
Hyperlinks zu Notebook-Abschnitten sind im Voranzeigemodus nicht funktionsfähig
Wenn Ihr Notebook Abschnitte enthält, die Sie beispielsweise über einen Einführungsabschnitt am oberen Rand des Notebooks verlinken, werden die Links zu diesen Abschnitten nicht funktionieren, wenn das Notizbuch im Modus 'Nur anzeigen' in Firefox geöffnet wurde. Wenn Sie das Notizbuch jedoch im Bearbeitungsmodus öffnen, werden diese Links funktionieren.
Verbindung zum Notebook-Kernel kann nicht hergestellt werden
Wenn Sie versuchen, ein Notebook auszuführen, und nach den Nachrichten Connecting to Kernel
und Connection failed. Reconnecting
eine Fehlernachricht für fehlgeschlagene Verbindung ausgegeben wird, kann dies bedeuten, dass die Ausführung des Notebooks durch Ihre Firewall blockiert wird.
Wenn Watson Studio hinter einer Firewall installiert ist, müssen Sie die WebSocket-Verbindung wss://dataplatform.cloud.ibm.com
zu den Firewalleinstellungen hinzufügen. Die Aktivierung dieser WebSocket-Verbindung ist erforderlich, wenn Sie Notebooks und RStudio verwenden.
ERROR_RESOURCES_UNAVAILABLE beim Öffnen oder Bearbeiten eines Notebooks
Wenn beim Öffnen oder Bearbeiten eines Notebooks die Nachricht ERROR_RESOURCES_UNAVAILABLE angezeigt wird, weist die Ihrem Notebook zugeordnete Umgebungslaufzeit Ressourcenprobleme auf.
Um die Ursache zu ermitteln, versuchen Sie, die Statusseite für IBM Cloud -Vorfälle zu überprüfen, die sich auf Watson Studioauswirken. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support Portal öffnen.
Probleme mit Watson Machine Learning
Bei der Arbeit mit IBM Watson Machine Learning-Komponenten (einschließlich ModelBuilder und Ablaufeditor) könnten manche der folgenden Probleme auftreten.
Anforderungen an die Region
Sie können Ihrem Watson Studio-Projekt nur dann eine Watson MachineLearning-Serviceinstanz zuordnen, wenn sich die Watson Machine Learning-Serviceinstanzund die Watson Studio-Instanz in derselben Region befinden.
Laufzeiteinschränkungen beiAblaufeditor
Watson Studio enthält in Peru, Ecuador, Kolumbien und Venezuela keineSPSS-Funktionalität.
Probleme bei der Bereitstellung
- Eine Bereitstellung, die eine bestimmte Zeit lang inaktiv ist (24 Stunden für denkostenlosen Plan oder 120 Stunden für einen bezahlten Plan), wird automatisch in denHibernationsmodus versetzt. Bei Übergabe einer neuen Scoring-Anforderung wird dieBereitstellung reaktiviert und die Scoring-Anforderung verarbeitet. Je nachModellframework kann es nach der Aktivierung zu einer Verzögerung von bis zu 60Sekunden für die erste Scoring-Anforderung kommen.
- Bei einigen Frameworks (z. B. SPSS Modeler) kann die erste Scoring-Anforderung fürein bereitgestelltes Modell nach der Hibernation zu einem Fehler 504 führen. Ist dies derFall, übergeben Sie die Anforderung erneut; nachfolgende Anforderungen sollten dannerfolgreich sein.
Bekannte Einschränkungen bei AutoAI
Derzeit werden bei AutoAI-Experimenten keine Doppelbytezeichensätzeunterstützt. AutoAI unterstützt nur CSV-Dateien mit ASCII-Zeichen. Benutzer müssen alle Nicht-ASCII-Zeichen im Dateinamen oder Inhalt konvertieren und Eingabedaten im CSV-Format (wie in diesem CSV-Standard definiert) bereitstellen.
Verwenden Sie die REST-API anstelle des Python-Clients, um programmgestützt miteinem AutoAI-Modell zu interagieren. Die APIs für den Python-Client, die für dieUnterstützung von AutoAI erforderlich sind, stehen zurzeit nicht zur Verfügung.
Datenmodul wird in IBM Federated Learning nicht gefunden
Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
Das Problem wird möglicherweise durch die Verwendung eines veralteten Datenhandlers verursacht. Überprüfen und aktualisieren Sie Ihren Datenhandler so, dass er der neuesten Spezifikation entspricht. Hier der Link zum neuesten MNIST-Datenhandler; oder stellen Sie sicher, dass die Beispielversionen in Ihrer Galerie auf dem neuesten Stand sind.
Pod-Erstellung schlägt bei erneuter Ausführung eines IBM Federated Learning-Experiments fehl
Möglicherweise wird die folgende Fehlernachricht angezeigt:
Pod creation failed because of insufficient resources that prevented scheduling.
Das Problem kann auf die Verwendung eines älteren Modells in einer neueren Softwarespezifikation zurückzuführen sein. Überprüfen und aktualisieren Sie Ihr Modell so, dass es der neuesten Spezifikation entspricht. Hier ist der Link zu den neuesten Frameworks und Python -Versionskompatibilität.
Probleme bei Cognos Dashboard Embedded
Bei der Arbeit mit Cognos Dashboard Embedded können die folgenden Probleme auftreten:
Cognos-Dashboards können nur Datenverbindungen verwenden, die mit Berechtigungsnachweisen für Benutzername und Kennwort erstellt wurden.
Cognos Dashboard Embedded erfordert, dass Datenbankverbindungen und verbundene Datenassets, die als Datenquellen zu einem Dashboard hinzugefügt werden, Berechtigungsnachweise mit Benutzername und Kennwort enthalten müssen.
Wenn diese Berechtigungsnachweise nicht in der Verbindung angegeben werden und stattdessen ein Token oder API-Schlüssel verwendet wird, kann Cognos Dashboard Embedded diese Verbindung oder das verbundene Datenasset nicht als Datenquelle verwenden.
Für optimierte Datenassets wird ein falscher Datentypangezeigt
Wenn Sie nach dem Importieren einer CSV-Datei auf die importierte Datei auf der Übersichtsseite des Datenassets klicken, werden manche Spaltentypen möglicherweise nicht ordnungsgemäß angezeigt. Beispiel: Für ein Dataset eines Unternehmensberichts mit einer Spalte namens Einnahmen, die den Umsatz des Unternehmens enthält, wird möglicherweise der Typ Zeichenfolge angezeigt und nicht wie erwartet ein numerischer Datentyp.
Nicht unterstützte Sonderzeichen in CSV-Dateien
Der Name der CSV-Quellendatei kann aus alphanumerischen Zeichen bestehen. Der CSV-Dateiname darf jedoch nicht die Sonderzeichen / : & < . \ "
enthalten. Wenn der Dateiname diese Sonderzeichen enthält, werden sie aus dem Tabellennamen entfernt.
Wichtig: Die Namen der Tabellenspalten in der CSV-Quellendatei dürfen keine Sonderzeichen enthalten, die nicht unterstützt werden. Diese Zeichen können nicht entfernt werden, da der Name im Datenmodul mit dem Namen der Spalte in der Quellendatei übereinstimmen muss. Entfernen Sie in diesem Fall die Sonderzeichen aus den Spaltennamen, um die Verwendung Ihrer Daten in einem Dashboard zu ermöglichen.
In CSV-Dateien sind Zeichenfolgewerte auf 128 Zeichen begrenzt.
Zeichenfolgewerte in einer Spalte in der CSV-Quellendatei dürfen maximal 128 Zeichen lang sein. Wenn eine CSV-Datei Zeichenfolgespalten mit längeren Werten enthält, wird eine Fehlernachricht angezeigt.
Einschränkungen beim Datumsformat in CSV-Dateien
Für CSV-Dateien, die in Visualisierungen verwendet werden, gelten Datumsformateinschränkungen. Informationen hierzu finden Sie in Probleme bei der Verwendung von Daten aus CSV-Dateien in Cognos Dashboard Embedded lösen.
Datentabelle in einer Visualisierung kann nicht ersetzt werden
Wenn Sie eine Visualisierung zu einem Dashboard hinzufügen, können Sie der Visualisierung keine Datentabelle hinzufügen, wenn Sie zuvor Datenfelder aus einer anderen Datentabelle hinzugefügt (und danach entfernt) haben. Diese Einschränkung gilt für Db2, CSV-Tabellen und andere Datenquellen.
Nicht unterstützte Cognos Analytics-Funktionen
Folgende Funktionen von IBM Cognos Analytics werden in Dashboards nicht unterstützt:
- Datengruppierung
- Angepasste Farbpaletten
- Angepasste Visualisierungen
- Assistent
- Vorhersage
- Insights für die Visualisierung
- Jupyter-Notebook-Visualisierung
- Erweiterte Datenanalyse
SPSS Modeler-Probleme
Bei der Arbeit in SPSS Modeler können Sie auf einige der folgenden Probleme stoßen.
Fehler beim Stoppen eines aktiven Flusses
Beim Ausführen eines SPSS Modeler-Ablaufs tritt möglicherweise ein Fehler auf, wenn Sie versuchen, den Ablauf über die Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts zu stoppen. Um die SPSS Modeler-Laufzeit und den CUH-Verbrauch vollständig zu stoppen, schließen Sie die Browserregisterkarte(n), in der/denen Sie den Ablauf geöffnet haben.
Importierte Data-Asset-Exportknoten werden manchmal nicht ausgeführt
Wenn Sie einen neuen Ablauf erstellen, indem Sie einen SPSS Modeler-Datenstrom (.str -Datei) importieren, den Exportknoten migrieren und anschließend den resultierenden Datenasset-Exportknoten ausführen, kann die Ausführung fehlschlagen. Gehen Sie wie folgt vor, um dieses Problem zu umgehen: Führen Sie den Knoten erneut aus, ändern Sie den Ausgabenamen und ändern Sie die Option Wenn das Dataset bereits vorhanden ist in den Knoteneigenschaften. Führen Sie den Knoten anschließend erneut aus.
Datenvorschau kann fehlschlagen, wenn Tabellenmetadaten geändert wurden
In einigen Fällen kann die Datenvorschau bei der Verwendung des Datenasset-Importknotens zum Importieren von Daten aus einer Verbindung einen Fehler zurückgeben, wenn sich die zugrunde liegenden Tabellenmetadaten (Datenmodell) geändert haben. Erstellen Sie den Datenassetknoten erneut, um das Problem zu beheben.
Die Ausgabe kann nach der Ausführung eines Erweiterungsausgabeknotens nicht angezeigt werden.
Bei der Ausführung eines Erweiterungsausgabeknotens mit der Option Ausgabe in Datei gibt die resultierende Ausgabedatei einen Fehler zurück, wenn Sie versuchen, die Datei über die Anzeige 'Ausgaben' zu öffnen.
Excel-Daten aus COS-Verbindungen können nicht angezeigt werden
Derzeit können Sie keine Vorschau für .xls- oder .xlsx-Daten aus einer COS-Verbindung anzeigen.
Zahlen, die als Zeichenfolge interpretiert werden
Jede Zahl mit einer Genauigkeit größer-gleich 32 und einer Anzahl der Kommastellen gleich 0 wird als Zeichenfolge interpretiert. Wenn Sie dieses Verhalten ändern müssen, können Sie das Feld stattdessen mithilfe eines Füllerknotens mit dem Ausdruck 'to_real(@FIELD)' in eine reelle Zahl umsetzen.
Superknoten mit Importknoten
Wenn Ihr Ablauf über einen Superknoten verfügt, der einen Importknoten enthält, wird das Eingabeschema möglicherweise nicht ordnungsgemäß festgelegt, wenn Sie das Modell mit der Option Scoring-Verzweigung speichern. Um dieses Problem zu umgehen, erweitern Sie den Superknoten, bevor Sie speichern.
In eine SAV-Datei exportieren
Wenn Sie den Export in eine SPSS Statistics-SAV-Datei (.sav) mithilfe eines Data Asset Export-Knotens durchführen, funktioniert die Option Datenasset ersetzen nicht, wenn das Eingabeschema nicht mit dem Ausgabeschema übereinstimmt. Das Schema der vorhandenen Datei, die ersetzt werden soll, muss übereinstimmen.
Abläufe auf einer Watson Machine Learning Server-Instanz ausführen
Wenn Sie Abläufe auf einer Watson Machine Learning Server-Instanz ausführen, können die folgenden Probleme auftreten:
- Wenn ein Ablauf auf eine Verbindung verweist, muss die Verbindung sowohl auf der lokalen Maschine (zum Konfigurieren der Verbindung) als auch auf der fernen Watson Machine Learning Server-Instanz (zum Ausführen des Ablaufs) zugänglich sein.
- Wenn ein Fluss Text Analytics-Knoten enthält, können Sie ihn nicht auf einem Watson Machine Learning Server ausführen. In diesem Fall muss der Fluss lokal ausgeführt werden.
- Importieren Sie eine Datenstromdatei (.str), für die eine Migration erforderlich ist, nicht in einen Ablauf, der auf der Watson Machine Learning Server-Instanz ausgeführt wird.
Migration von Importknoten
Wenn Sie einen Datenstrom (.str) in Ihren Ablauf importieren, der in SPSS Modeler Desktop erstellt wurde und mindestens einen nicht unterstützten Importknoten enthält, werden Sie aufgefordert, die Importknoten in Datenassets zu migrieren. Falls der Datenstrom mehrere Importknoten enthält, die dieselbe Datendatei verwenden, müssen Sie vor der Migration zunächst diese Datei als Datenasset zu Ihrem Projekt hinzufügen, weil die Migration dieselbe Datei nicht auf mehrere Importknoten hochladen kann. Nachdem Sie das Datenasset zu Ihrem Projekt hinzugefügt haben, öffnen Sie den Ablauf erneut und setzen Sie die Migration unter Verwendung des neuen Datenassets fort.
Textanalyseeinstellungen werden nicht gespeichert
Nachdem Sie die Text Analytics Workbench geschlossen haben, werden alle von Ihnen geänderten Filter-oder Kategorieerstellungseinstellungen nicht wie erforderlich im Knoten gespeichert.
Knoten und Unicode-Zeichen zusammenführen
Der Zusammenführungsknoten behandelt die folgenden sehr ähnlichen japanischen Zeichen als dasselbe Zeichen.
Übergeordnetes Thema: Cloud Pak for Data as a Service