0 / 0
Zurück zur englischen Version der Dokumentation
Bekannte Probleme und Einschränkungen

Bekannte Probleme und Einschränkungen

Die folgenden bekannten Probleme und Einschränkungen gelten für Cloud Pak for Data as a Service.

Liste der Probleme für Watson Knowledge Catalog

Liste der Probleme mit Maskierungsabläufen

Liste der Probleme für Data Refinery

Liste der Probleme für Watson Query

Liste der Notebookprobleme

Liste der Probleme beim maschinellen Lernen

Liste der Probleme für Cognos Dashboard Embedded

Liste der Probleme für Watson OpenScale

Liste der Probleme für SPSS Modeler

Probleme mit Cloud Object Storage

  • Liste der Probleme beim maschinellen Lernen
    • Fehler bei Assets, die Watson Machine Learning in Projekten verwenden, die Cloud Object Storage mit aktiviertem Key Protect angeben.
    • Auto AI
    • Föderieren Lernen
    • Watson Pipelines
  • Liste der Probleme für SPSS Modeler
    • Modell kann unter Angabe von Cloud Object Storage mit aktiviertem Key Protect nicht in Projekt gespeichert werden.
  • Liste der Notebookprobleme
    • Modell kann unter Angabe von Cloud Object Storage mit aktiviertem Key Protect nicht in Projekt gespeichert werden.

Watson Knowledge Catalog

Bei der Arbeit mit Watson Knowledge Catalog treten möglicherweise die folgendenbekannten Probleme und Einschränkungen auf, wenn Sie Kataloge verwenden:

DPS-Kategoriecaches (DPS = Data Policy Service) synchronisieren

Aus Leistungszwecken bewahrt der Data Policy Service (DPS) eine Kopie der Glossarkategorien in Caches auf. Wenn Kategorien erstellt, aktualisiert oder gelöscht werden, veröffentlicht der Glossarservice RabbitMQ -Ereignisse, um diese Änderungen widerzuspiegeln. Der DPS überwacht diese Ereignisse und aktualisiert die Caches. In seltenen Fällen kann die Nachricht jedoch verloren gehen, wenn der RabbitMQ -Service inaktiv oder zu ausgelastet ist. Der DPS stellt ein REST-API-Dienstprogramm zum Aktualisieren des Cache bereit.

Sie können das folgende REST-API-Dienstprogramm während einer Ausfallzeit ohne Kategorieänderungen ausführen, um unerwartete Durchsetzungsergebnisse während der Ausführung zu vermeiden und ungenaue Cacheaktualisierungen zu vermeiden:

curl -v -k -X GET --header "Content-Type: application/json"
  --header "Accept: application/json"
  --header "Authorization: Bearer ${token}"
    "${uri}/v3/enforcement/governed_items/sync/category"

Diese REST-API ist im Service Watson Knowledge Catalog verfügbar.

Maskierte Daten werden in Datenvisualisierungen nicht unterstützt.

Maskierte Daten werden in Datenvisualisierungen nicht unterstützt. Wenn Sie beim Generieren eines Diagramms auf der Registerkarte Visualisierungen eines Datenassets in einem Projekt versuchen, mit maskierten Daten zu arbeiten, wird die folgende Fehlernachricht empfangen: Bad Request: Failed to retrieve data from server. Masked data is not supported.

Daten werden in einigen Projekttools nicht maskiert

Wenn Sie ein verbundenes Datenasset, das über maskierte Spalten aus einem Katalog verfügt, zu einem Projekt hinzufügen, bleiben die Spalten maskiert, wenn Sie die Daten anzeigen und wenn Sie die Daten im Data Refinery-Tool verfeinern. Bei Verwendung anderer Tools in den Projekten bleibt die Maskierung beim Zugriff auf die Daten über eine Verbindung jedoch nicht erhalten. Wenn Sie beispielsweise verbundene Daten in ein Notebook, einen DataStage -Ablauf, ein Dashboard oder andere Projekttools laden, greifen Sie über eine direkte Verbindung auf die Daten zu und umgehen die Maskierung.

Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar

Wenn keine vordefinierten Klassifikationen oder Datenklassen angezeigt werden, reinitialisieren Sie Ihren Tenant mit dem folgenden API-Aufruf:

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Mitarbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen

Geben Sie beim Hinzufügen von Mitarbeitern zum Katalog die E-Mail-Adressen vollständig in Kleinbuchstaben ein. E-Mail-Adressen in Groß-/Kleinschreibung werden nicht unterstützt.

Einschränkungen bei ObjectStorage-Verbindungen

Bei einer Cloud Object Storage-Verbindung (S3-API) oder einer Cloudant-Verbindung wirdder Ordner selbst als untergeordnetes Asset aufgeführt.

Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl

Es kann ein Fehler auftreten, wenn mehrere Benutzer gleichzeitig Verbindungsoperationen ausführen. Die Fehlernachricht kann unterschiedlich lauten.

Die Durchsetzung von Datenschutzregeln kann nach der Katalogerstellung nicht aktiviert werden

Sie können die Durchsetzung von Datenschutzregeln nicht aktivieren, nachdem Sie einen Katalog erstellt haben. Wenn Sie Datenschutzregeln auf Assets in einem Katalog anwenden möchten, müssen Sie die Durchsetzung während der Katalogerstellung aktivieren.

Assets werden blockiert, wenn Auswertung fehlschlägt

Die folgenden Einschränkungen gelten für Datenassets in einem Katalog mit Richtliniendurchsetzung: Dateibasierte Datenassets mit Header dürfen weder doppelten Spaltennamen, noch einen Punkt (.) oder einfache Anführungszeichen (') in einem Spaltennamen enthalten.

Wenn die Auswertung fehlschlägt, wird das Asset für alle Benutzer mit Ausnahme des Asseteigners blockiert. Allen anderen Benutzern wird eine Fehlernachricht angezeigt, die besagt, dass das Datenasset nicht angezeigt werden kann, weil die Auswertung fehlgeschlagen ist und das Asset blockiert ist.

Nur über die Schaltfläche 'Zurück' des Browsers gelangen Sie von der Seite für Standardeinstellungen zurück zum Asset für Metadatenaufbereitung

Wenn Sie die Seite Standardeinstellungen in einem Asset für Metadatenaufbereitung öffnen, können Sie nicht über eine Schaltfläche in der Benutzerschnittstelle des Produkts oder über den Navigationspfad zum Asset zurückkehren. Verwenden Sie die Schaltfläche 'Zurück' im Browser, um zum Asset zurückzukehren.

Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet

Beim Filtern der Ergebnisse der Metadatenaufbereitung in der Registerkarte Spalte wird die Groß-/Kleinschreibung nur bei den Einträgen für Datenklasse beachtet. Die Einträge in den Filtern für Geschäftsbegriffe, Schemas und Assets werden in Kleinschreibung dargestellt, unabhängig von der tatsächlichen Schreibweise für den jeweiligen Wert.

Filteroptionen in den Ergebnissen der Metadatenaufbereitung werden möglicherweise nicht sofort aktualisiert

Wenn Sie Assets hinzufügen, neue Datenklassen oder Geschäftsbegriffe zuordnen oder Geschäftsbegriffe entfernen, werden die zugehörigen Filter nicht sofort aktualisiert. Um das Problem zu umgehen, aktualisieren Sie den Browser, damit die aktualisierten Filterlisten angezeigt werden.

Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden

Nach dem Bearbeiten der Aufbereitungsoptionen für eine Metadatenaufbereitung, die mindestens einmal ausgeführt wurde, werden in den Assetdetails möglicherweise die aktualisierten Optionen angezeigt und nicht die Optionen, die bei der letzten Ausführung der Metadatenaufbereitung angewendet wurden.

Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden

Wenn sich die Anzahl der Assets oder Spalten in einem Asset für Metadatenaufbereitung über mehrere Seiten erstreckt, können Sie nicht direkt zu einer bestimmten Seite wechseln. Die Dropdown-Liste für Seitennummern ist inaktiviert. Verwenden Sie stattdessen die Schaltflächen Nächste Seite und Vorherige Seite.

In den Aufbereitungsergebnissen für eine Spalte werden unvollständige Details für eine zugeordnete Datenklasse angezeigt

Wenn Sie auf die zugeordnete Datenklasse in der Registerkarte Governance der Spaltendetails in den Ergebnissen der Metadatenaufbereitung klicken, wird eine Vorschau der Datenklassendetails angezeigt. Die angezeigten Details sind jedoch unvollständig.

In einigen Fällen wird möglicherweise nicht das vollständige Protokoll eines Jobs zur Metadatenaufbereitung in der Benutzerschnittstelle angezeigt.

Wenn die Liste der Fehler in einer Ausführung der Metadatenaufbereitung außergewöhnlich lang ist, wird möglicherweise nur ein Teil des Jobprotokolls in der Benutzerschnittstelle angezeigt.

Problemumgehung: Laden Sie das gesamte Protokoll herunter und analysieren Sie es in einem externen Editor.

Möglicherweise fehlen Schemainformationen, wenn Sie Aufbereitungsergebnisse filtern

Wenn Sie Assets oder Spalten in den Aufbereitungsergebnissen nach Quelleninformationen filtern, sind möglicherweise keine Schemainformationen verfügbar.

Problemumgehung: Führen Sie den Aufbereitungsjob erneut aus und wenden Sie den Filter Quelle erneut an.

Regeln, die für Spalten des Typs 'Zeit' in Datenassets aus der Datenquelle Amazon Redshift ausgeführt werden, geben keine ordnungsgemäßen Ergebnisse zurück

Für Datenassets aus Amazon Redshift -Datenquellen werden Spalten des Typs 'Zeit' mit dem Typ 'Zeitmarke' importiert. Sie können keine zeitspezifischen Datenqualitätsregeln auf solche Spalten anwenden.

Maskierungsablauf

Wenn Sie den Maskierungsablauf verwenden, können diese bekannten Probleme und Einschränkungen auftreten, wenn Sie Daten privatisieren.

Maskierungsflussjobs können fehlschlagen

Während eines Maskierungsflussjobs versucht Spark möglicherweise, alle Daten einer Datenquelle in den Speicher zu einzulesen. Dabei können Fehler auftreten, wenn nicht genügend Speicher für die erfolgreiche Ausführung des Jobs verfügbar ist. Es passen maximal ca. 12 GB an Daten in den größten bereitgestellten Spark-Verarbeitungsknoten.

Änderungen am Maskierungszeichen können nicht gespeichert werden

Wenn Sie eine neue Datenschutzregel erstellen oder eine vorhandene Datenschutzregel bearbeiten, um Spalten mit einer Datenklasse neu zu bearbeiten, kann es zu Problemen kommen, die Änderungen vom Standardmaskierungszeichen X auf ein anderes Zeichen zu speichern.

Wenn Sie auf Erstellen (oder Aktualisieren) klicken, um Ihre Regel zu speichern, bevor das neue Zeichen unter der Spalte Nach im Abschnitt Beispieldaten angezeigt wird, wird Ihre Änderung am Maskierungszeichen nicht gespeichert.

Eine Problemumgehung zum Speichern der Regel mit dem neuen Maskierungszeichen:
Warten Sie etwa 3 Sekunden, bis die Daten unter der Spalte Nach im Abschnitt Beispieldaten mit dem neuen Maskierungszeichen neu bearbeitet wurden, und klicken Sie dann auf Erstellen (oder Aktualisieren), um die Regel mit dem neuen Zeichen zu speichern.

Data Refinery

Bei der Arbeit mit Data Refinery treten möglicherweise die folgenden bekanntenProbleme und Einschränkungen auf, wenn Sie Daten optimieren:

Persänliche Berechtigungsnachweise werden für verbundene Datenassets in Data Refinery nicht unterstützt

Wenn Sie ein verbundenes Datenasset mit persönlichen Berechtigungsnachweisen erstellen, müssen andere Benutzer auf die folgende Problemumgehung zurückgreifen, um das verbundene Datenasset in Data Refinery zu verwenden.

Problemumgehung:

  1. Rufen Sie die Projektseite auf und klicken Sie auf den Link für das verbundene Datenasset, um die Vorschau zu öffnen.
  2. Geben Sie Berechtigungsnachweise ein.
  3. Öffnen Sie Data Refinery und verwenden Sie das authentifizierte verbundene Datenasset für eine Quelle oder ein Ziel.

Jobs in Data Refinery-Abläufen können in der Benutzerschnittstelle für neue Projekte nicht angezeigt werden

Wenn Sie in der Benutzerschnittstelle für neue Projekte arbeiten, haben Sie nicht die Möglichkeit, Jobs über das Auswahlmenü in Data Refinery -Abläufenanzuzeigen.

Problemumgehung: Um Jobs in Data Refinery -Flowsanzuzeigen, öffnen Sie einen Data Refinery -Flow, klicken Sie auf das Symbol Jobs Symbol 'Job ausführen oder planen'und wählen Sie Speichern und Jobs anzeigen aus. Eine Liste aller Jobs in Ihrem Projekt können Sie auf der Registerkarte Jobs anzeigen.

Probleme bei Notebooks

Bei den ersten Schritten mit und bei der Verwendung von Notebooks können einige dieser Probleme auftreten.

Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt

Wenn Sie ein Notebook in der Benutzerschnittstelle für neue Projekte duplizieren, wird das doppelte Notebook nicht mit einem eindeutigen Namen erstellt.

In älteren Konten können keine Assets erstellt werden

Wenn Sie in einer Instanz von Watson Studio arbeiten, die vor November 2017 aktiviert wurde, können Sie möglicherweise keine Betriebsassets wie Notebooks erstellen. Wenn die Schaltfläche Erstellen abgeblendet und inaktiviert bleibt, müssen Sie den Watson Studio-Service aus dem Servicekatalog zu Ihrem Konto hinzufügen.

Beim Starten von Watson Studio wird der Fehlercode 500 ('Interner Serverfehler') empfangen

In seltenen Fällen erhalten Sie beim Starten von Watson Studio möglicherweise einen internen HTTP-Serverfehler (500). Dies kann durch ein abgelaufenes Cookie verursacht werden, das für den Browser gespeichert ist. Um zu bestätigen, dass der Fehler durch ein veraltetes Cookie verursacht wurde, versuchen Sie, Watson Studio in einer privaten Browsersitzung (incognito) oder unter Verwendung eines anderen Browsers zu starten. Wenn der Start in einem neuen Browser erfolgreich ist, wurde der Fehler durch ein abgelaufenes Cookie verursacht. Es stehen eine Reihe von Lösungen zur Verfügung:

  1. Beenden Sie die Browseranwendung vollständig, um das Cookie zurückzusetzen. Sie müssen dabei die Anwendung schließen und erneut starten, nicht nur einfach das Browserfenster schließen. Starten Sie die Browseranwendung erneut und starten Sie Watson Studio, um das Sitzungscookie zurückzusetzen.
  2. Löschen Sie die IBM Cookies aus den Browsing-Daten und starten Sie Watson Studio. Sehen Sie sich zum Löschen von Cookies die Browsing-Daten oder Sicherheitsoptionen im Browser an. Beachten Sie, dass das Löschen aller IBM Cookies möglicherweise Auswirkungen auf andere IBM Anwendungen hat.

Wenn der Fehlercode 500 nach dem Anwenden einer dieser Lösungen bestehen bleibt, überprüfen Sie die Statusseite auf IBM Cloud-Vorfälle, die sich auf Watson Studio auswirken. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support-Portal öffnen.

Fehler bei der Anmeldung

Beim Anmelden an Watson Studio wird möglicherweise diese Fehlernachricht angezeigt: 'Access Manager WebSEAL konnte Ihre Anfrage aufgrund eines unerwarteten Fehlers nicht abschließen.' Versuchen Sie erneut sich anzumelden. In der Regel ist der zweite Anmeldeversucherfolgreich.

ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt

Einige TensorFlow-Bibliotheken sind vorinstalliert, aber wenn Sie versuchen,zusätzliche TensorFlow-Bibliotheken selbst zu installieren, tritt ein Fehler auf.

Das Herstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einerCodezelle länger als erwartet

Wenn Sie versuchen, die Verbindung zum Kernel wiederherzustellen und sofort eine Codezelle ausführen (bzw. wenn die Kernelverbindung während der Codeausführung wiederhergestellt wurde), stellt das Notebook die Verbindung zum Kernel nicht wieder her und für die Codezelle wird keine Ausgabe angezeigt. Sie müssen die Verbindung zum Kernel manuell wiederherstellen, indem Sie auf Kernel > Verbindung wiederherstellen klicken. Wenn der Kernel bereit ist, könnenSie versuchen, die Codezelle erneut auszuführen.

DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler

Möglicherweise tritt ein Apache Spark-Fehler auf, wenn Sie das vordefiniertesqlContext-Objekt in mehreren Notebooks verwenden. Erstellen Sie für jedes Notebookein neues sqlContext-Objekt. Weitere Informationen finden Sie in dieser Erläuterung zu Stack Overflow.

Nachricht wegen fehlgeschlagener Verbindung

Wenn Ihr Kernel gestoppt wird, erfolgt keine automatische Speicherung Ihres Notebooksmehr. Klicken Sie zum Speichern des Notebooks manuell auf Datei > Speichern. Daraufhin müsste im Bereich für Kernelinformationen vor der Spark-Version die Nachricht Notebook gespeichert angezeigt werden. Wenn eine Nachricht darauf hinweist, dass der Kernel fehlgeschlagen ist, klicken Sie auf Kernel > Verbindung wiederherstellen, um Ihr Notebook wieder mit dem Kernel zu verbinden. Wenn Ihre Versuche zum erneuten Starten des Kernels erfolglos bleiben und das Notebook nicht gespeichert werden kann, laden Sie es herunter, um die Änderungen zu speichern. Klicken Sie dazu auf Datei > Herunterladen als > Notebook (.ipynb). Anschließend müssen Sie auf Basis Ihrer heruntergeladenenNotebookdatei ein neues Notebook erstellen.

Verbindung zum Notebook-Kernel kann nicht hergestellt werden

Wenn Sie versuchen, ein Notebook auszuführen, und nach den Nachrichten Connecting to Kernelund Connection failed. Reconnecting eine Fehlernachricht für fehlgeschlagene Verbindung ausgegeben wird, kann dies bedeuten, dass die Ausführung des Notebooks durch Ihre Firewall blockiert wird.

Wenn Watson Studio hinter einer Firewall installiert ist, müssen Sie die WebSocket-Verbindung wss://dataplatform.cloud.ibm.com in den Firewalleinstellungen hinzufügen. Die Aktivierung dieser WebSocket-Verbindung ist erforderlich, wenn Sie Notebooks und RStudio verwenden.

Fehler 'Nicht genügend Ressourcen verfügbar' beim Öffnen oder Bearbeiten eines Notebooks

Wenn beim Öffnen oder Bearbeiten eines Notebooks die folgende Nachricht angezeigt wird, weist die dem Notebook zugeordnete Umgebungslaufzeit Ressourcenprobleme auf:

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

Um die Ursache zu ermitteln, versuchen Sie, die Statusseite für IBM Cloud -Vorfälle zu überprüfen, die sich auf Watson Studioauswirken. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support Portal öffnen.

Probleme beim maschinellen Lernen

Beim Arbeiten mit Tools für maschinelles Lernen können einige dieser Probleme auftreten.

Anforderungen an die Region

Sie können Ihrem Projekt nur dann eine Watson Machine Learning -Serviceinstanz zuordnen, wenn sich die Watson Machine Learning -Serviceinstanz und die Watson Studio -Instanz in derselben Region befinden.

Auf Links zugreifen, wenn Sie beim Zuordnen eines Service zu einem Projekt eine Serviceinstanz erstellen

Wenn Sie einen Watson Machine Learning -Service einem Projekt zuordnen, können Sie eine neue Serviceinstanz erstellen. Wenn Sie einen neuen Service erstellen möchten, funktionieren die Links auf der Serviceseite möglicherweise nicht. Um auf Servicebedingungen, APIs und Dokumentation zuzugreifen, klicken Sie mit der rechten Maustaste auf die Links, um sie in neuen Fenstern zu öffnen.

Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden

Sie können Federated Learning-Assets nicht über die Ansicht Alle Assets , die Suchergebnisse oder die Filterergebnisse Ihres Projekts durchsuchen.

Problemumgehung Klicken Sie auf das Federated Learning-Asset, um das Tool zu öffnen.

Probleme bei der Bereitstellung

  • Eine Bereitstellung, die eine bestimmte Zeit lang inaktiv ist (24 Stunden für denkostenlosen Plan oder 120 Stunden für einen bezahlten Plan), wird automatisch in denHibernationsmodus versetzt. Bei Übergabe einer neuen Scoring-Anforderung wird dieBereitstellung reaktiviert und die Scoring-Anforderung verarbeitet. Je nachModellframework kann es nach der Aktivierung zu einer Verzögerung von bis zu 60Sekunden für die erste Scoring-Anforderung kommen.
  • Bei einigen Frameworks (z. B. SPSS Modeler) kann die erste Scoring-Anforderung fürein bereitgestelltes Modell nach der Hibernation zu einem Fehler 504 führen. Ist dies derFall, übergeben Sie die Anforderung erneut; nachfolgende Anforderungen sollten dannerfolgreich sein.

Bekannte Einschränkungen bei AutoAI

  • Derzeit werden bei AutoAI-Experimenten keine Doppelbytezeichensätzeunterstützt. AutoAI unterstützt nur CSV-Dateien mit ASCII-Zeichen. Benutzer müssen alle Nicht-ASCII-Zeichen im Dateinamen oder Inhalt konvertieren und Eingabedaten CSV-Format bereitstellen, wie in diesem CSV-Standard definiert.

  • Verwenden Sie die REST-API anstelle des Python-Clients, um programmgestützt miteinem AutoAI-Modell zu interagieren. Die APIs für den Python-Client, die für dieUnterstützung von AutoAI erforderlich sind, stehen zurzeit nicht zur Verfügung.

Datenmodul wird in IBM Federated Learning nicht gefunden

Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

Das Problem wird möglicherweise durch die Verwendung eines veralteten Datenhandlers verursacht. Überprüfen und aktualisieren Sie Ihren Datenhandler so, dass er der neuesten Spezifikation entspricht. Hier ist der Link zum neuesten MNIST-Datenhandler oder stellen Sie sicher, dass Ihre Beispielversionen aktuell sind.

Vorschau maskierter Datenassets ist im Bereitstellungsbereich blockiert * *

Eine Datenassetvorschau kann mit der folgenden Nachricht fehlschlagen: This asset contains masked data and is not supported for preview in the Deployment Space

Bereitstellungsbereiche unterstützen derzeit keine Maskierung von Daten. Daher wurde die Vorschau für maskierte Assets blockiert, um Datenlecks zu vermeiden.

Probleme bei Cognos Dashboard Embedded

Bei der Arbeit mit Cognos Dashboard Embedded können die folgenden Probleme auftreten:

CSV-Dateien mit doppelten Spaltennamen werden nicht unterstützt

Cognos Dashboard Embedded unterstützt keine CSV-Dateien, die doppelte Spaltennamen enthalten. Bei Duplikaten wird die Groß-/Kleinschreibung nicht beachtet. Beispielsweise werden BRANCH_NAME, branch_nameund Branch_Name als doppelte Spaltennamen betrachtet.

Cognos -Dashboards können nur Datenverbindungen verwenden, die mit Berechtigungsnachweisen für Benutzernamen und Kennwort erstellt wurden.

Cognos Dashboard Embedded erfordert, dass Datenbankverbindungen und verbundene Datenassets, die als Datenquellen zu einem Dashboard hinzugefügt werden, Berechtigungsnachweise mit Benutzername und Kennwort enthalten müssen.

Wenn diese Berechtigungsnachweise nicht in der Verbindung angegeben werden und stattdessen ein Token oder API-Schlüssel verwendet wird, kann Cognos Dashboard Embedded diese Verbindung oder das verbundene Datenasset nicht als Datenquelle verwenden.

Für optimierte Datenassets wird ein falscher Datentypangezeigt

Wenn Sie nach dem Importieren einer CSV-Datei auf die importierte Datei auf der Übersichtsseite des Datenassets klicken, werden manche Spaltentypen möglicherweise nicht ordnungsgemäß angezeigt. Beispiel: Für ein Dataset eines Unternehmensberichts mit einer Spalte namens Einnahmen, die den Umsatz des Unternehmens enthält, wird möglicherweise der Typ Zeichenfolge angezeigt und nicht wie erwartet ein numerischer Datentyp.

Nicht unterstützte Sonderzeichen in CSV-Dateien

Der Name der CSV-Quellendatei kann aus alphanumerischen Zeichen bestehen. Der CSV-Dateiname darf jedoch nicht die Sonderzeichen / : & < . \ "enthalten. Wenn der Dateiname diese Sonderzeichen enthält, werden sie aus dem Tabellennamen entfernt.

Wichtig: Tabellenspaltennamen in der CSV-Quellendatei dürfen keines der nicht unterstützten Sonderzeichen enthalten. Diese Zeichen können nicht entfernt werden, da der Name im Datenmodul mit dem Namen der Spalte in der Quellendatei übereinstimmen muss. Entfernen Sie in diesem Fall die Sonderzeichen aus den Spaltennamen, um die Verwendung Ihrer Daten in einem Dashboard zu ermöglichen.

In CSV-Dateien sind Zeichenfolgewerte auf 128 Zeichen begrenzt.

Zeichenfolgewerte in einer Spalte in der CSV-Quellendatei dürfen maximal 128 Zeichen lang sein. Wenn eine CSV-Datei Zeichenfolgespalten mit längeren Werten enthält, wird eine Fehlernachricht angezeigt.

Einschränkungen beim Datumsformat in CSV-Dateien

Für CSV-Dateien, die in Visualisierungen verwendet werden, gelten Datumsformateinschränkungen. Informationen hierzu finden Sie in Probleme bei der Verwendung von Daten aus CSV-Dateien in Cognos Dashboard Embedded lösen.

Datentabelle in einer Visualisierung kann nicht ersetzt werden

Wenn Sie eine Visualisierung zu einem Dashboard hinzufügen, können Sie der Visualisierung keine Datentabelle hinzufügen, wenn Sie zuvor Datenfelder aus einer anderen Datentabelle hinzugefügt (und danach entfernt) haben. Diese Einschränkung gilt für Db2, CSV-Tabellen und andere Datenquellen.

Nicht unterstützte Cognos Analytics-Funktionen

Folgende Funktionen von IBM Cognos Analytics werden in Dashboards nicht unterstützt:

  • Datengruppierung
  • Angepasste Farbpaletten
  • Angepasste Visualisierungen
  • Assistent
  • Vorhersage
  • Insights für die Visualisierung
  • Jupyter-Notebook-Visualisierung
  • Erweiterte Datenanalyse

Probleme mit Watson OpenScale

In Watson OpenScalekönnen die folgenden Probleme auftreten:

Driftkonfiguration wird gestartet, aber nicht beendet

Die Driftkonfiguration wird gestartet, aber nicht beendet und der Wartekreisel wird angezeigt. Wenn der Wartekreisel länger als 10 Minuten angezeigt wird, ist es möglich, dass das System in einen inkonsistenten Status geraten ist. Für dieses Verhalten gibt es eine Problemumgehung: Bearbeiten Sie die Driftkonfiguration. Speichern Sie den Job anschließend. Möglicherweise verlässt das System diesen Status und schließt die Konfiguration ab. Wenn eine erneute Driftkonfiguration die Situation nicht behebt, wenden Sie sich an den IBM Support.

SPSS Modeler-Probleme

Bei der Arbeit in SPSS Modeler können Sie auf einige der folgenden Probleme stoßen.

Einschränkungen der SPSS Modeler -Laufzeit

Watson Studio enthält in Peru, Ecuador, Kolumbien und Venezuela keineSPSS-Funktionalität.

Fehler beim Stoppen eines aktiven Flusses

Beim Ausführen eines SPSS Modeler-Ablaufs tritt möglicherweise ein Fehler auf, wenn Sie versuchen, den Ablauf über die Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts zu stoppen. Um die SPSS Modeler -Laufzeit und die CUH-Nutzung vollständig zu stoppen, schließen Sie die Browserregisterkarten, auf denen der Ablauf geöffnet ist.

Importierte Data-Asset-Exportknoten werden manchmal nicht ausgeführt

Wenn Sie einen neuen Ablauf erstellen, indem Sie einen SPSS Modeler-Datenstrom (.str -Datei) importieren, den Exportknoten migrieren und anschließend den resultierenden Datenasset-Exportknoten ausführen, kann die Ausführung fehlschlagen. Gehen Sie wie folgt vor, um dieses Problem zu umgehen: Führen Sie den Knoten erneut aus, ändern Sie den Ausgabenamen und ändern Sie die Option Wenn das Dataset bereits vorhanden ist in den Knoteneigenschaften. Führen Sie den Knoten anschließend erneut aus.

Datenvorschau kann fehlschlagen, wenn Tabellenmetadaten geändert wurden

In einigen Fällen kann die Datenvorschau bei der Verwendung des Datenasset-Importknotens zum Importieren von Daten aus einer Verbindung einen Fehler zurückgeben, wenn sich die zugrunde liegenden Tabellenmetadaten (Datenmodell) geändert haben. Erstellen Sie den Datenassetknoten erneut, um das Problem zu beheben.

Die Ausgabe kann nach der Ausführung eines Erweiterungsausgabeknotens nicht angezeigt werden.

Bei der Ausführung eines Erweiterungsausgabeknotens mit der Option Ausgabe in Datei gibt die resultierende Ausgabedatei einen Fehler zurück, wenn Sie versuchen, die Datei über die Anzeige 'Ausgaben' zu öffnen.

Excel-Daten aus IBM Cloud Object Storage -Verbindungen können nicht vorangezeigt werden

Derzeit können keine XLS-oder XLSX-Daten aus einer IBM Cloud Object Storage -Verbindung vorangezeigt werden.

Zahlen, die als Zeichenfolge interpretiert werden

Jede Zahl mit einer Genauigkeit größer-gleich 32 und einer Anzahl der Kommastellen gleich 0 wird als Zeichenfolge interpretiert. Wenn Sie dieses Verhalten ändern müssen, können Sie das Feld stattdessen mithilfe eines Füllerknotens mit dem Ausdruck 'to_real(@FIELD)' in eine reelle Zahl umsetzen.

Superknoten mit Importknoten

Wenn Ihr Ablauf über einen Superknoten verfügt, der einen Importknoten enthält, wird das Eingabeschema möglicherweise nicht ordnungsgemäß festgelegt, wenn Sie das Modell mit der Option Scoring-Verzweigung speichern. Um dieses Problem zu umgehen, erweitern Sie den Superknoten, bevor Sie speichern.

In eine SAV-Datei exportieren

Wenn Sie den Export in eine SPSS Statistics-SAV-Datei (.sav) mithilfe eines Data Asset Export-Knotens durchführen, funktioniert die Option Datenasset ersetzen nicht, wenn das Eingabeschema nicht mit dem Ausgabeschema übereinstimmt. Das Schema der vorhandenen Datei, die ersetzt werden soll, muss übereinstimmen.

Migration von Importknoten

Wenn Sie einen Datenstrom (.str) in Ihren Ablauf importieren, der in SPSS Modeler Desktop erstellt wurde und mindestens einen nicht unterstützten Importknoten enthält, werden Sie aufgefordert, die Importknoten in Datenassets zu migrieren. Falls der Datenstrom mehrere Importknoten enthält, die dieselbe Datendatei verwenden, müssen Sie vor der Migration zunächst diese Datei als Datenasset zu Ihrem Projekt hinzufügen, weil die Migration dieselbe Datei nicht auf mehrere Importknoten hochladen kann. Nachdem Sie das Datenasset zu Ihrem Projekt hinzugefügt haben, öffnen Sie den Ablauf erneut und setzen Sie die Migration unter Verwendung des neuen Datenassets fort.

Textanalyseeinstellungen werden nicht gespeichert

Nachdem Sie die Text Analytics Workbench geschlossen haben, werden alle von Ihnen geänderten Filter-oder Kategorieerstellungseinstellungen nicht wie erforderlich im Knoten gespeichert.

Knoten und Unicode-Zeichen zusammenführen

Der Zusammenführungsknoten behandelt die folgenden sehr ähnlichen japanischen Zeichen als dasselbe Zeichen.
Japanische Zeichen

Watson Pipelines -bekannte Probleme

Die Probleme betreffen Watson Pipelines.

Verschachtelungsschleifen mit mehr als zwei Ebenen können zu Pipelinefehlern führen

Verschachtelungsschleifen mit mehr als zwei Ebenen können zu einem Fehler führen, wenn Sie die Pipeline ausführen, z. B. Fehler beim Abrufen der Ausführung. Wenn Sie die Protokolle prüfen, kann ein Fehler wie text in text not resolved: neither pipeline_input nor node_outputangezeigt werden. Wenn Sie eine Schleife mit der Ausgabe eines Bash-Scripts erstellen, wird im Protokoll möglicherweise ein Fehler wie der folgende aufgelistet: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output). Um das Problem zu beheben, verschachteln Sie Schleifen nicht mehr als zwei Ebenen.

Asset-Browser spiegelt nicht immer die Anzahl für die Gesamtzahl des Assettyps wider

When selecting an asset from the asset browser, such as choosing a source for a Copy node, you see that some of the assets list the total number of that asset type available, but notebooks do not. Dies ist eine aktuelle Einschränkung.

Pipeline-Versionen können nicht gelöscht werden

Derzeit können Sie gespeicherte Versionen von Pipelines, die Sie nicht mehr benötigen, nicht löschen.

Das Löschen eines AutoAI-Experiments schlägt unter bestimmten Umständen fehl

Bei Verwendung eines AutoAI-Experiment löschen-Knotens zum Löschen eines AutoAI-Experiments, das über die Benutzerschnittstelle für Projekte erstellt wurde, wird das AutoAI-Asset nicht gelöscht. Der restliche Ablauf wird jedoch erfolgreich durchgeführt.

Cache scheint aktiviert zu sein, ist aber nicht aktiviert

Wenn der Kopiermodus des Pipelines-Knotens Assets kopieren auf Overwritegesetzt ist, wird der Cache als aktiviert angezeigt, bleibt aber inaktiviert.

Einschränkungen für Watson Pipelines

Diese Einschränkungen gelten für Watson Pipelines.

Grenzwerte für einzelne Pipelines

Diese Einschränkung gilt unabhängig von der Konfiguration für eine einzelne Pipeline.

  • Jede einzelne Pipeline darf nicht mehr als 120 Standardknoten enthalten
  • Jede Pipeline mit einer Schleife kann nicht mehr als 600 Knoten in allen Iterationen enthalten (z. B. 60 Iterationen-jeweils 10 Knoten).

Einschränkungen nach Konfigurationsgröße

Einstiegslösung mit begrenztem Umfang

Eine SMALL-Konfiguration unterstützt 600 Standardknoten (über alle aktiven Pipelines hinweg) oder 300 Knoten werden in einer Schleife ausgeführt. Zum Beispiel:

  • 30 Standardpipelines mit 20 Knoten werden parallel ausgeführt = 600 Standardknoten
  • 3 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 300 Knoten in einer Schleife

Lösung mit mittelgroßem Umfang

Eine MEDIUM-Konfiguration unterstützt 1200 Standardknoten (über alle aktiven Pipelines hinweg) oder 600 Knoten laufen in einer Schleife. Zum Beispiel:

  • 30 Standardpipelines mit 40 Knoten werden parallel ausgeführt = 1200 Standardknoten
  • 6 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 600 Knoten in einer Schleife

Große Lösung

Eine LARGE-Konfiguration unterstützt 4800 Standardknoten (über alle aktiven Pipelines hinweg) oder 2400 Knoten werden in einer Schleife ausgeführt. Zum Beispiel:

  • 80 Standardpipelines mit 60 Knoten laufen parallel = 4800 Standardknoten
  • 24 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 2400 Knoten in einer Schleife

Größenbegrenzungen für Eingabe und Ausgabe

Eingabe-und Ausgabewerte, die Pipelineparameter, Benutzervariablen und generische Knoteneingaben und -ausgaben enthalten, dürfen 10 KB an Daten nicht überschreiten.

Batcheingabe auf Datenassets beschränkt

Derzeit ist die Eingabe für Batchbereitstellungsjobs auf Datenassets beschränkt. Dies bedeutet, dass bestimmte Typen von Implementierungen, die JSON-Eingabe oder mehrere Dateien als Eingabe erfordern, nicht unterstützt werden. So werden z. B. SPSS-Modelle und Decision Optimization-Lösungen, für die mehrere Dateien als Eingabe erforderlich sind, nicht unterstützt.

Probleme mit Cloud Object Storage

Diese Probleme gelten für die Arbeit mit Cloud Object Storage.

Probleme mit Cloud Object Storage bei aktiviertem Key Protect

Key Protect in Verbindung mit Cloud Object Storage wird für die Arbeit mit Watson Machine Learning -Assets nicht unterstützt. Wenn Sie Key Protectverwenden, können diese Probleme auftreten, wenn Sie mit Assets in Watson Studioarbeiten.

  • Das Trainieren oder Speichern dieser Watson Machine Learning -Assets kann fehlschlagen:
    • Auto AI
    • Federated Learning
    • Watson Pipelines
  • Möglicherweise können Sie ein SPSS -Modell oder ein Notebookmodell nicht in einem Projekt speichern.
Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen