0 / 0
Zurück zur englischen Version der Dokumentation
Bekannte Probleme und Einschränkungen

Bekannte Probleme und Einschränkungen

Die folgenden bekannten Probleme und Einschränkungen gelten für Cloud Pak for Data as a Service.

Liste der IBM Knowledge Catalog -Probleme

Liste der Probleme mit Maskierungsabläufen

Liste der Probleme für Watson Query

Liste der Notebookprobleme

Liste der Probleme beim maschinellen Lernen

Liste der Einschränkungen für maschinelles Lernen

Liste der Probleme für Cognos Dashboard Embedded

Liste der Probleme für Watson OpenScale

Liste der Probleme für SPSS Modeler

Liste der Verbindungsprobleme

Probleme mit Cloud Object Storage

  • Liste der Probleme beim maschinellen Lernen
    • Fehler bei Assets, die Watson Machine Learning in Projekten verwenden, die Cloud Object Storage mit aktiviertem Key Protect angeben.
    • Auto AI
    • Föderieren Lernen
    • Watson Pipelines
  • Liste der Probleme für SPSS Modeler
    • Modell kann unter Angabe von Cloud Object Storage mit aktiviertem Key Protect nicht in Projekt gespeichert werden.
  • Liste der Notebookprobleme
    • Modell kann unter Angabe von Cloud Object Storage mit aktiviertem Key Protect nicht in Projekt gespeichert werden.

IBM Knowledge Catalog

Wenn Sie IBM Knowledge Catalogverwenden, können diese bekannten Probleme und Einschränkungen bei der Verwendung von Katalogen auftreten.

Maskierte Daten werden in Datenvisualisierungen nicht unterstützt.

Maskierte Daten werden in Datenvisualisierungen nicht unterstützt. Wenn Sie beim Generieren eines Diagramms auf der Registerkarte Visualisierungen eines Datenassets in einem Projekt versuchen, mit maskierten Daten zu arbeiten, wird die folgende Fehlernachricht empfangen: Bad Request: Failed to retrieve data from server. Masked data is not supported.

Daten werden in einigen Projekttools nicht maskiert

Wenn Sie ein verbundenes Datenasset, das über maskierte Spalten aus einem Katalog verfügt, zu einem Projekt hinzufügen, bleiben die Spalten maskiert, wenn Sie die Daten anzeigen und wenn Sie die Daten im Data Refinery-Tool verfeinern. Bei Verwendung anderer Tools in den Projekten bleibt die Maskierung beim Zugriff auf die Daten über eine Verbindung jedoch nicht erhalten. Wenn Sie beispielsweise verbundene Daten in ein Notebook, einen DataStage -Ablauf, ein Dashboard oder andere Projekttools laden, greifen Sie über eine direkte Verbindung auf die Daten zu und umgehen die Maskierung.

Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar

Wenn keine vordefinierten Klassifikationen oder Datenklassen angezeigt werden, reinitialisieren Sie Ihren Tenant mit dem folgenden API-Aufruf:

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Mitarbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen

Geben Sie beim Hinzufügen von Mitarbeitern zum Katalog die E-Mail-Adressen vollständig in Kleinbuchstaben ein. E-Mail-Adressen in Groß-/Kleinschreibung werden nicht unterstützt.

Einschränkungen bei ObjectStorage-Verbindungen

Bei einer Cloud Object Storage-Verbindung (S3-API) oder einer Cloudant-Verbindung wirdder Ordner selbst als untergeordnetes Asset aufgeführt.

Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl

Es kann ein Fehler auftreten, wenn mehrere Benutzer gleichzeitig Verbindungsoperationen ausführen. Die Fehlernachricht kann unterschiedlich lauten.

Die Durchsetzung von Datenschutzregeln kann nach der Katalogerstellung nicht aktiviert werden

Sie können die Durchsetzung von Datenschutzregeln nicht aktivieren, nachdem Sie einen Katalog erstellt haben. Wenn Sie Datenschutzregeln auf Assets in einem Katalog anwenden möchten, müssen Sie die Durchsetzung während der Katalogerstellung aktivieren.

Assets werden blockiert, wenn Auswertung fehlschlägt

Die folgenden Einschränkungen gelten für Datenassets in einem Katalog mit Richtliniendurchsetzung: Dateibasierte Datenassets mit Header dürfen weder doppelten Spaltennamen, noch einen Punkt (.) oder einfache Anführungszeichen (') in einem Spaltennamen enthalten.

Wenn die Auswertung fehlschlägt, wird das Asset für alle Benutzer mit Ausnahme des Asseteigners blockiert. Allen anderen Benutzern wird eine Fehlernachricht angezeigt, die besagt, dass das Datenasset nicht angezeigt werden kann, weil die Auswertung fehlgeschlagen ist und das Asset blockiert ist.

Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet

Beim Filtern der Ergebnisse der Metadatenaufbereitung in der Registerkarte Spalte wird die Groß-/Kleinschreibung nur bei den Einträgen für Datenklasse beachtet. Die Einträge in den Filtern für Geschäftsbegriffe, Schemas und Assets werden in Kleinschreibung dargestellt, unabhängig von der tatsächlichen Schreibweise für den jeweiligen Wert.

Filteroptionen in den Ergebnissen der Metadatenaufbereitung werden möglicherweise nicht sofort aktualisiert

Wenn Sie Assets hinzufügen, neue Datenklassen oder Geschäftsbegriffe zuordnen oder Geschäftsbegriffe entfernen, werden die zugehörigen Filter nicht sofort aktualisiert. Um das Problem zu umgehen, aktualisieren Sie den Browser, damit die aktualisierten Filterlisten angezeigt werden.

Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden

Nach dem Bearbeiten der Aufbereitungsoptionen für eine Metadatenaufbereitung, die mindestens einmal ausgeführt wurde, werden in den Assetdetails möglicherweise die aktualisierten Optionen angezeigt und nicht die Optionen, die bei der letzten Ausführung der Metadatenaufbereitung angewendet wurden.

Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden

Wenn sich die Anzahl der Assets oder Spalten in einem Asset für Metadatenaufbereitung über mehrere Seiten erstreckt, können Sie nicht direkt zu einer bestimmten Seite wechseln. Die Dropdown-Liste für Seitennummern ist inaktiviert. Verwenden Sie stattdessen die Schaltflächen Nächste Seite und Vorherige Seite.

In einigen Fällen wird möglicherweise nicht das vollständige Protokoll eines Jobs zur Metadatenaufbereitung in der Benutzerschnittstelle angezeigt.

Wenn die Liste der Fehler in einer Ausführung der Metadatenaufbereitung außergewöhnlich lang ist, wird möglicherweise nur ein Teil des Jobprotokolls in der Benutzerschnittstelle angezeigt.

Problemumgehung: Laden Sie das gesamte Protokoll herunter und analysieren Sie es in einem externen Editor.

Möglicherweise fehlen Schemainformationen, wenn Sie Aufbereitungsergebnisse filtern

Wenn Sie Assets oder Spalten in den Aufbereitungsergebnissen nach Quelleninformationen filtern, sind möglicherweise keine Schemainformationen verfügbar.

Problemumgehung: Führen Sie den Aufbereitungsjob erneut aus und wenden Sie den Filter Quelle erneut an.

Regeln, die für Spalten des Typs 'Zeit' in Datenassets aus der Datenquelle Amazon Redshift ausgeführt werden, geben keine ordnungsgemäßen Ergebnisse zurück

Für Datenassets aus Amazon Redshift -Datenquellen werden Spalten des Typs 'Zeit' mit dem Typ 'Zeitmarke' importiert. Sie können keine zeitspezifischen Datenqualitätsregeln auf solche Spalten anwenden.

Ausgabe der Metadatenanreicherung in eine frühere Version von Apache Hive als 3.0.0 schreiben

Wenn Sie eine Datenqualitätsausgabe, die durch die Metadatenaufbereitung generiert wurde, in eine Apache Hive -Datenbank mit einer früheren Softwareversion als 3.0.0schreiben möchten, legen Sie die folgenden Konfigurationsparameter in Ihrem Apache Hive -Server fest:

set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true;   # (not required for version 2)

set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true;   # might not be available depending on the version
set hive.compactor.worker.threads=1;

Weitere Informationen finden Sie unter Hive -Transaktionen.

Maskierungsablauf

Wenn Sie den Maskierungsablauf verwenden, können diese bekannten Probleme und Einschränkungen auftreten, wenn Sie Daten privatisieren.

Maskierungsflussjobs können fehlschlagen

Während eines Maskierungsflussjobs versucht Spark möglicherweise, alle Daten einer Datenquelle in den Speicher zu einzulesen. Dabei können Fehler auftreten, wenn nicht genügend Speicher für die erfolgreiche Ausführung des Jobs verfügbar ist. Es passen maximal ca. 12 GB an Daten in den größten bereitgestellten Spark-Verarbeitungsknoten.

Probleme bei Notebooks

Bei den ersten Schritten mit und bei der Verwendung von Notebooks können einige dieser Probleme auftreten.

Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt

Wenn Sie ein Notebook in der Benutzerschnittstelle für neue Projekte duplizieren, wird das doppelte Notebook nicht mit einem eindeutigen Namen erstellt.

In älteren Konten können keine Assets erstellt werden

Wenn Sie in einer Instanz von Watson Studio arbeiten, die vor November 2017 aktiviert wurde, können Sie möglicherweise keine Betriebsassets wie Notebooks erstellen. Wenn die Schaltfläche Erstellen abgeblendet und inaktiviert bleibt, müssen Sie den Watson Studio-Service aus dem Servicekatalog zu Ihrem Konto hinzufügen.

Beim Starten von Watson Studio wird der Fehlercode 500 ('Interner Serverfehler') empfangen

In seltenen Fällen erhalten Sie beim Starten von Watson Studio möglicherweise einen internen HTTP-Serverfehler (500). Dies kann durch ein abgelaufenes Cookie verursacht werden, das für den Browser gespeichert ist. Um zu bestätigen, dass der Fehler durch ein veraltetes Cookie verursacht wurde, versuchen Sie, Watson Studio in einer privaten Browsersitzung (incognito) oder unter Verwendung eines anderen Browsers zu starten. Wenn der Start in einem neuen Browser erfolgreich ist, wurde der Fehler durch ein abgelaufenes Cookie verursacht. Es stehen eine Reihe von Lösungen zur Verfügung:

  1. Beenden Sie die Browseranwendung vollständig, um das Cookie zurückzusetzen. Sie müssen dabei die Anwendung schließen und erneut starten, nicht nur einfach das Browserfenster schließen. Starten Sie die Browseranwendung erneut und starten Sie Watson Studio, um das Sitzungscookie zurückzusetzen.
  2. Löschen Sie die IBM Cookies aus den Browsing-Daten und starten Sie Watson Studio. Sehen Sie sich zum Löschen von Cookies die Browsing-Daten oder Sicherheitsoptionen im Browser an. Beachten Sie, dass das Löschen aller IBM Cookies möglicherweise Auswirkungen auf andere IBM Anwendungen hat.

Wenn der Fehlercode 500 nach dem Anwenden einer dieser Lösungen bestehen bleibt, überprüfen Sie die Statusseite auf IBM Cloud-Vorfälle, die sich auf Watson Studio auswirken. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support-Portal öffnen.

Fehler bei der Anmeldung

Beim Anmelden an Watson Studio wird möglicherweise diese Fehlernachricht angezeigt: 'Access Manager WebSEAL konnte Ihre Anfrage aufgrund eines unerwarteten Fehlers nicht abschließen.' Versuchen Sie erneut sich anzumelden. In der Regel ist der zweite Anmeldeversucherfolgreich.

ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt

Einige TensorFlow-Bibliotheken sind vorinstalliert, aber wenn Sie versuchen,zusätzliche TensorFlow-Bibliotheken selbst zu installieren, tritt ein Fehler auf.

Das Herstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einerCodezelle länger als erwartet

Wenn Sie versuchen, die Verbindung zum Kernel wiederherzustellen und sofort eine Codezelle ausführen (bzw. wenn die Kernelverbindung während der Codeausführung wiederhergestellt wurde), stellt das Notebook die Verbindung zum Kernel nicht wieder her und für die Codezelle wird keine Ausgabe angezeigt. Sie müssen die Verbindung zum Kernel manuell wiederherstellen, indem Sie auf Kernel > Verbindung wiederherstellen klicken. Wenn der Kernel bereit ist, könnenSie versuchen, die Codezelle erneut auszuführen.

DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler

Möglicherweise tritt ein Apache Spark-Fehler auf, wenn Sie das vordefiniertesqlContext-Objekt in mehreren Notebooks verwenden. Erstellen Sie für jedes Notebookein neues sqlContext-Objekt. Weitere Informationen finden Sie in dieser Erläuterung zu Stack Overflow.

Nachricht wegen fehlgeschlagener Verbindung

Wenn Ihr Kernel gestoppt wird, erfolgt keine automatische Speicherung Ihres Notebooksmehr. Klicken Sie zum Speichern des Notebooks manuell auf Datei > Speichern. Daraufhin müsste im Bereich für Kernelinformationen vor der Spark-Version die Nachricht Notebook gespeichert angezeigt werden. Wenn eine Nachricht darauf hinweist, dass der Kernel fehlgeschlagen ist, klicken Sie auf Kernel > Verbindung wiederherstellen, um Ihr Notebook wieder mit dem Kernel zu verbinden. Wenn Ihre Versuche zum erneuten Starten des Kernels erfolglos bleiben und das Notebook nicht gespeichert werden kann, laden Sie es herunter, um die Änderungen zu speichern. Klicken Sie dazu auf Datei > Herunterladen als > Notebook (.ipynb). Anschließend müssen Sie auf Basis Ihrer heruntergeladenenNotebookdatei ein neues Notebook erstellen.

Verbindung zum Notebook-Kernel kann nicht hergestellt werden

Wenn Sie versuchen, ein Notebook auszuführen, und nach den Nachrichten Connecting to Kernelund Connection failed. Reconnecting eine Fehlernachricht für fehlgeschlagene Verbindung ausgegeben wird, kann dies bedeuten, dass die Ausführung des Notebooks durch Ihre Firewall blockiert wird.

Wenn Watson Studio hinter einer Firewall installiert ist, müssen Sie die WebSocket-Verbindung wss://dataplatform.cloud.ibm.com in den Firewalleinstellungen hinzufügen. Die Aktivierung dieser WebSocket-Verbindung ist erforderlich, wenn Sie Notebooks und RStudio verwenden.

Fehler 'Nicht genügend Ressourcen verfügbar' beim Öffnen oder Bearbeiten eines Notebooks

Wenn beim Öffnen oder Bearbeiten eines Notebooks die folgende Nachricht angezeigt wird, weist die dem Notebook zugeordnete Umgebungslaufzeit Ressourcenprobleme auf:

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

Um die Ursache zu ermitteln, versuchen Sie, die Statusseite für IBM Cloud -Vorfälle zu überprüfen, die sich auf Watson Studioauswirken. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support Portal öffnen.

Probleme beim maschinellen Lernen

Beim Arbeiten mit Tools für maschinelles Lernen können einige dieser Probleme auftreten.

Anforderungen an die Region

Sie können Ihrem Projekt nur dann eine Watson Machine Learning -Serviceinstanz zuordnen, wenn sich die Watson Machine Learning -Serviceinstanz und die Watson Studio -Instanz in derselben Region befinden.

Auf Links zugreifen, wenn Sie beim Zuordnen eines Service zu einem Projekt eine Serviceinstanz erstellen

Wenn Sie einen Watson Machine Learning -Service einem Projekt zuordnen, können Sie eine neue Serviceinstanz erstellen. Wenn Sie einen neuen Service erstellen möchten, funktionieren die Links auf der Serviceseite möglicherweise nicht. Um auf Servicebedingungen, APIs und Dokumentation zuzugreifen, klicken Sie mit der rechten Maustaste auf die Links, um sie in neuen Fenstern zu öffnen.

Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden

Sie können Federated Learning-Assets nicht über die Ansicht Alle Assets , die Suchergebnisse oder die Filterergebnisse Ihres Projekts durchsuchen.

Problemumgehung Klicken Sie auf das Federated Learning-Asset, um das Tool zu öffnen.

Probleme bei der Bereitstellung

  • Eine Bereitstellung, die eine bestimmte Zeit lang inaktiv ist (24 Stunden für denkostenlosen Plan oder 120 Stunden für einen bezahlten Plan), wird automatisch in denHibernationsmodus versetzt. Bei Übergabe einer neuen Scoring-Anforderung wird dieBereitstellung reaktiviert und die Scoring-Anforderung verarbeitet. Je nachModellframework kann es nach der Aktivierung zu einer Verzögerung von bis zu 60Sekunden für die erste Scoring-Anforderung kommen.
  • Bei einigen Frameworks (z. B. SPSS Modeler) kann die erste Scoring-Anforderung fürein bereitgestelltes Modell nach der Hibernation zu einem Fehler 504 führen. Ist dies derFall, übergeben Sie die Anforderung erneut; nachfolgende Anforderungen sollten dannerfolgreich sein.

Vorschau maskierter Datenassets ist im Bereitstellungsbereich blockiert * *

Eine Datenassetvorschau kann mit der folgenden Nachricht fehlschlagen: This asset contains masked data and is not supported for preview in the Deployment Space

Bereitstellungsbereiche unterstützen derzeit keine Maskierung von Daten. Daher wurde die Vorschau für maskierte Assets blockiert, um Datenlecks zu vermeiden.

Stapelbereitstellungsjobs, die große Inline-Nutzdaten verwenden, können im Status starting oder running blockiert werden

Wenn Sie große asynchrone Nutzdaten für Ihre Inline-Batchbereitstellung bereitstellen, kann dies dazu führen, dass der Laufzeitmanagerprozess den Heapspeicher nicht mehr benötigt.

Im folgenden Beispiel wurden 92 MB Nutzdaten inline an die Batchbereitstellung übergeben, was dazu führte, dass der Heapspeicher über zu wenig Speicher verfügt.

Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
	at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
	at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
	at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
	at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
   ...

Dies könnte dazu führen, dass gleichzeitig ablaufende Jobs im Status starting oder running blockiert werden. Der Status starting kann erst gelöscht werden, wenn die Implementierung gelöscht und eine neue Implementierung erstellt wurde. Der Status running kann gelöscht werden, ohne dass die Implementierung gelöscht wird.

Verwenden Sie als Problemumgehung Datenverweise anstelle von Inline für umfangreiche Nutzdaten, die für Stapelbereitstellungen bereitgestellt werden.

Einschränkungen für Watson Machine Learning

Bekannte Einschränkungen bei AutoAI

  • Derzeit werden bei AutoAI-Experimenten keine Doppelbytezeichensätzeunterstützt. AutoAI unterstützt nur CSV-Dateien mit ASCII-Zeichen. Benutzer müssen alle Nicht-ASCII-Zeichen im Dateinamen oder Inhalt konvertieren und Eingabedaten CSV-Format bereitstellen, wie in diesem CSV-Standard definiert.

  • Verwenden Sie die REST-API anstelle des Python-Clients, um programmgestützt miteinem AutoAI-Modell zu interagieren. Die APIs für den Python-Client, die für dieUnterstützung von AutoAI erforderlich sind, stehen zurzeit nicht zur Verfügung.

Datenmodul wird in IBM Federated Learning nicht gefunden

Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

Das Problem wird möglicherweise durch die Verwendung eines veralteten Datenhandlers verursacht. Überprüfen und aktualisieren Sie Ihren Datenhandler so, dass er der neuesten Spezifikation entspricht. Hier ist der Link zum neuesten MNIST-Datenhandler oder stellen Sie sicher, dass Ihre Beispielversionen aktuell sind.

Das Festlegen von Umgebungsvariablen in einer Conda-YAML-Datei funktioniert nicht für Implementierungen

Das Festlegen von Umgebungsvariablen in einer Conda-YAML-Datei funktioniert nicht für Implementierungen. Dies bedeutet, dass Sie vorhandene Umgebungsvariablen nicht überschreiben können, z. B. LD_LIBRARY_PATH, wenn Sie Assets in Watson Machine Learningbereitstellen.

Als Problemumgehung sollten Sie bei Verwendung einer Python -Funktion die Festlegung von Standardparametern in Betracht ziehen. Details finden Sie unter Python -Funktionen bereitstellen.

Probleme bei Cognos Dashboard Embedded

Bei der Arbeit mit Cognos Dashboard Embedded können die folgenden Probleme auftreten:

CSV-Dateien mit doppelten Spaltennamen werden nicht unterstützt

Cognos Dashboard Embedded unterstützt keine CSV-Dateien, die doppelte Spaltennamen enthalten. Bei Duplikaten wird die Groß-/Kleinschreibung nicht beachtet. Beispielsweise werden BRANCH_NAME, branch_nameund Branch_Name als doppelte Spaltennamen betrachtet.

Cognos -Dashboards können nur Datenverbindungen verwenden, die mit Berechtigungsnachweisen für Benutzernamen und Kennwort erstellt wurden.

Cognos Dashboard Embedded erfordert, dass Datenbankverbindungen und verbundene Datenassets, die als Datenquellen zu einem Dashboard hinzugefügt werden, Berechtigungsnachweise mit Benutzername und Kennwort enthalten müssen.

Wenn diese Berechtigungsnachweise nicht in der Verbindung angegeben werden und stattdessen ein Token oder API-Schlüssel verwendet wird, kann Cognos Dashboard Embedded diese Verbindung oder das verbundene Datenasset nicht als Datenquelle verwenden.

Für optimierte Datenassets wird ein falscher Datentypangezeigt

Wenn Sie nach dem Importieren einer CSV-Datei auf die importierte Datei auf der Übersichtsseite des Datenassets klicken, werden manche Spaltentypen möglicherweise nicht ordnungsgemäß angezeigt. Beispiel: Für ein Dataset eines Unternehmensberichts mit einer Spalte namens Einnahmen, die den Umsatz des Unternehmens enthält, wird möglicherweise der Typ Zeichenfolge angezeigt und nicht wie erwartet ein numerischer Datentyp.

Nicht unterstützte Sonderzeichen in CSV-Dateien

Der Name der CSV-Quellendatei kann aus alphanumerischen Zeichen bestehen. Der CSV-Dateiname darf jedoch nicht die Sonderzeichen / : & < . \ "enthalten. Wenn der Dateiname diese Sonderzeichen enthält, werden sie aus dem Tabellennamen entfernt.

Wichtig: Tabellenspaltennamen in der CSV-Quellendatei dürfen keines der nicht unterstützten Sonderzeichen enthalten. Diese Zeichen können nicht entfernt werden, da der Name im Datenmodul mit dem Namen der Spalte in der Quellendatei übereinstimmen muss. Entfernen Sie in diesem Fall die Sonderzeichen aus den Spaltennamen, um die Verwendung Ihrer Daten in einem Dashboard zu ermöglichen.

In CSV-Dateien sind Zeichenfolgewerte auf 128 Zeichen begrenzt.

Zeichenfolgewerte in einer Spalte in der CSV-Quellendatei dürfen maximal 128 Zeichen lang sein. Wenn eine CSV-Datei Zeichenfolgespalten mit längeren Werten enthält, wird eine Fehlernachricht angezeigt.

Einschränkungen beim Datumsformat in CSV-Dateien

Für CSV-Dateien, die in Visualisierungen verwendet werden, gelten Datumsformateinschränkungen. Informationen hierzu finden Sie in Probleme bei der Verwendung von Daten aus CSV-Dateien in Cognos Dashboard Embedded lösen.

Datentabelle in einer Visualisierung kann nicht ersetzt werden

Wenn Sie eine Visualisierung zu einem Dashboard hinzufügen, können Sie der Visualisierung keine Datentabelle hinzufügen, wenn Sie zuvor Datenfelder aus einer anderen Datentabelle hinzugefügt (und danach entfernt) haben. Diese Einschränkung gilt für Db2, CSV-Tabellen und andere Datenquellen.

Nicht unterstützte Cognos Analytics-Funktionen

Folgende Funktionen von IBM Cognos Analytics werden in Dashboards nicht unterstützt:

  • Datengruppierung
  • Angepasste Farbpaletten
  • Angepasste Visualisierungen
  • Assistent
  • Vorhersage
  • Insights für die Visualisierung
  • Jupyter-Notebook-Visualisierung
  • Erweiterte Datenanalyse

Probleme mit Watson OpenScale

In Watson OpenScalekönnen die folgenden Probleme auftreten:

Driftkonfiguration wird gestartet, aber nicht beendet

Die Driftkonfiguration wird gestartet, aber nicht beendet und der Wartekreisel wird angezeigt. Wenn der Wartekreisel länger als 10 Minuten angezeigt wird, ist es möglich, dass das System in einen inkonsistenten Status geraten ist. Für dieses Verhalten gibt es eine Problemumgehung: Bearbeiten Sie die Driftkonfiguration. Speichern Sie den Job anschließend. Möglicherweise verlässt das System diesen Status und schließt die Konfiguration ab. Wenn eine erneute Driftkonfiguration die Situation nicht behebt, wenden Sie sich an den IBM Support.

SPSS Modeler-Probleme

Bei der Arbeit in SPSS Modeler können Sie auf einige der folgenden Probleme stoßen.

Einschränkungen der SPSS Modeler -Laufzeit

Watson Studio enthält in Peru, Ecuador, Kolumbien und Venezuela keineSPSS-Funktionalität.

Knoten und Unicode-Zeichen zusammenführen

Der Zusammenführungsknoten behandelt die folgenden sehr ähnlichen japanischen Zeichen als dasselbe Zeichen.
Japanische Zeichen

Verbindungsprobleme

Dieses Problem kann beim Arbeiten mit Verbindungen auftreten.

Cloudera Impala -Verbindung funktioniert nicht mit LDAP-Authentifizierung

Wenn Sie eine Verbindung zu einer Cloudera Impala -Datenquelle erstellen und der Cloudera Impala -Server für die LDAP-Authentifizierung konfiguriert ist, funktioniert die Authentifizierungsmethode mit Benutzername und Kennwort in Cloud Pak for Data as a Service nicht.

Problemumgehung: Inaktivieren Sie die Option LDAP-Authentifizierung aktivieren auf dem Impala -Server. Weitere Informationen finden Sie unter LDAP-Authentifizierung konfigurieren in der Dokumentation zu Cloudera .

Watson Pipelines -bekannte Probleme

Die Probleme betreffen Watson Pipelines.

Verschachtelungsschleifen mit mehr als zwei Ebenen können zu Pipelinefehlern führen

Verschachtelungsschleifen mit mehr als zwei Ebenen können zu einem Fehler führen, wenn Sie die Pipeline ausführen, z. B. Fehler beim Abrufen der Ausführung. Wenn Sie die Protokolle prüfen, kann ein Fehler wie text in text not resolved: neither pipeline_input nor node_outputangezeigt werden. Wenn Sie eine Schleife mit der Ausgabe eines Bash-Scripts erstellen, wird im Protokoll möglicherweise ein Fehler wie der folgende aufgelistet: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output). Um das Problem zu beheben, verschachteln Sie Schleifen nicht mehr als zwei Ebenen.

Asset-Browser spiegelt nicht immer die Anzahl für die Gesamtzahl des Assettyps wider

When selecting an asset from the asset browser, such as choosing a source for a Copy node, you see that some of the assets list the total number of that asset type available, but notebooks do not. Dies ist eine aktuelle Einschränkung.

Pipeline-Versionen können nicht gelöscht werden

Derzeit können Sie gespeicherte Versionen von Pipelines, die Sie nicht mehr benötigen, nicht löschen.

Das Löschen eines AutoAI-Experiments schlägt unter bestimmten Umständen fehl

Bei Verwendung eines AutoAI-Experiment löschen-Knotens zum Löschen eines AutoAI-Experiments, das über die Benutzerschnittstelle für Projekte erstellt wurde, wird das AutoAI-Asset nicht gelöscht. Der restliche Ablauf wird jedoch erfolgreich durchgeführt.

Cache scheint aktiviert zu sein, ist aber nicht aktiviert

Wenn der Kopiermodus des Pipelines-Knotens Assets kopieren auf Overwritegesetzt ist, wird der Cache als aktiviert angezeigt, bleibt aber inaktiviert.

Einschränkungen für Watson Pipelines

Diese Einschränkungen gelten für Watson Pipelines.

Grenzwerte für einzelne Pipelines

Diese Einschränkung gilt unabhängig von der Konfiguration für eine einzelne Pipeline.

  • Jede einzelne Pipeline darf nicht mehr als 120 Standardknoten enthalten
  • Jede Pipeline mit einer Schleife kann nicht mehr als 600 Knoten in allen Iterationen enthalten (z. B. 60 Iterationen-jeweils 10 Knoten).

Einschränkungen nach Konfigurationsgröße

Einstiegslösung mit begrenztem Umfang

Eine SMALL-Konfiguration unterstützt 600 Standardknoten (über alle aktiven Pipelines hinweg) oder 300 Knoten werden in einer Schleife ausgeführt. Beispiel:

  • 30 Standardpipelines mit 20 Knoten werden parallel ausgeführt = 600 Standardknoten
  • 3 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 300 Knoten in einer Schleife

Lösung mit mittelgroßem Umfang

Eine MEDIUM-Konfiguration unterstützt 1200 Standardknoten (über alle aktiven Pipelines hinweg) oder 600 Knoten laufen in einer Schleife. Beispiel:

  • 30 Standardpipelines mit 40 Knoten werden parallel ausgeführt = 1200 Standardknoten
  • 6 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 600 Knoten in einer Schleife

Große Lösung

Eine LARGE-Konfiguration unterstützt 4800 Standardknoten (über alle aktiven Pipelines hinweg) oder 2400 Knoten werden in einer Schleife ausgeführt. Beispiel:

  • 80 Standardpipelines mit 60 Knoten laufen parallel = 4800 Standardknoten
  • 24 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 2400 Knoten in einer Schleife

Größenbegrenzungen für Eingabe und Ausgabe

Eingabe-und Ausgabewerte, die Pipelineparameter, Benutzervariablen und generische Knoteneingaben und -ausgaben enthalten, dürfen 10 KB an Daten nicht überschreiten.

Batcheingabe auf Datenassets beschränkt

Derzeit ist die Eingabe für Batchbereitstellungsjobs auf Datenassets beschränkt. Dies bedeutet, dass bestimmte Typen von Implementierungen, die JSON-Eingabe oder mehrere Dateien als Eingabe erfordern, nicht unterstützt werden. So werden z. B. SPSS-Modelle und Decision Optimization-Lösungen, für die mehrere Dateien als Eingabe erforderlich sind, nicht unterstützt.

Probleme mit Cloud Object Storage

Diese Probleme gelten für die Arbeit mit Cloud Object Storage.

Probleme mit Cloud Object Storage bei aktiviertem Key Protect

Key Protect in Verbindung mit Cloud Object Storage wird für die Arbeit mit Watson Machine Learning -Assets nicht unterstützt. Wenn Sie Key Protectverwenden, können diese Probleme auftreten, wenn Sie mit Assets in Watson Studioarbeiten.

  • Das Trainieren oder Speichern dieser Watson Machine Learning -Assets kann fehlschlagen:
    • Auto AI
    • Federated Learning
    • Watson Pipelines
  • Möglicherweise können Sie ein SPSS -Modell oder ein Notebookmodell nicht in einem Projekt speichern.

Probleme mit watsonx.governance

Verzögerung beim Anzeigen von Bereitstellungsdaten für Eingabeaufforderungsvorlagen in einem Factsheet

Wenn eine Implementierung für eine Eingabeaufforderungsvorlage erstellt wird, werden die Fakten für die Implementierung nicht sofort zum Factsheet hinzugefügt. Sie müssen zuerst die Bereitstellung auswerten oder die Seite für die Lebenszyklusüberwachung anzeigen, um die Fakten zum Factsheet hinzuzufügen.

Redundante Anhangslinks im Factsheet

Ein Factsheet verfolgt alle Ereignisse für ein Asset in allen Phasen des Lebenszyklus. Anhänge werden in jeder Phase angezeigt, wodurch Redundanz im Factsheet entsteht.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen