Bekannte Probleme und Einschränkungen
Die folgenden bekannten Probleme und Einschränkungen gelten für Cloud Pak for Data as a Service.
- Regionale Einschränkungen
- Watson Knowledge Catalog
- Maskierungsablauf
- Data Refinery
- Watson Query
- Watson Studio
- Watson Machine Learning
- Cognos Dashboard Embedded
- Watson OpenScale
- SPSS Modeler
- Watson Pipelines
Liste der Probleme für Watson Knowledge Catalog
- DPS-Kategoriecaches (Data Policy Service) synchronisieren
- Maskierte Daten werden in Datenvisualisierungen nicht unterstützt
- Daten werden in einigen Projekttools nicht maskiert
- Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar
- Mitbearbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen
- Einschränkungen bei ObjectStorage-Verbindungen
- Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl
- Nach der Katalogerstellung können Richtlinien nicht aktiviert werden
- Assets werden blockiert, wenn Auswertung fehlschlägt
- Nur über die Schaltfläche 'Zurück' des Browsers gelangen Sie von der Seite für Standardeinstellungen zurück zum Asset für Metadatenaufbereitung
- Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet
- Filteroptionen in den Ergebnissen der Metadatenaufbereitung werden möglicherweise nicht sofort aktualisiert
- Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden
- Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden
- In den Aufbereitungsergebnissen für eine Spalte werden unvollständige Details für eine zugeordnete Datenklasse angezeigt
- In einigen Fällen wird möglicherweise nicht das vollständige Protokoll einer Jobausführung für die Metadatenaufbereitung in der Benutzerschnittstelle angezeigt
- Beim Filtern von Aufbereitungsergebnissen fehlen möglicherweise Schemainformationen
- Probleme bei der Suche auf der Registerkarte 'Assets' eines Assets für die Metadatenaufbereitung
Liste der Probleme mit Maskierungsabläufen
Liste der Probleme für Data Refinery
Liste der Probleme für Watson Query
Liste der Probleme für Watson Studio
- Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden
- Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt
- In älteren Konten können keine Assets erstellt werden
- Fehler bei der Anmeldung
- Beim Starten von Watson Studio wird der Fehlercode 500 ('Interner Serverfehler') empfangen
- ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt
- DasHerstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einer Codezellelänger als erwartet
- DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler
- Nachricht wegen fehlgeschlagenerVerbindung
- Hyperlinks zu Notebook-Abschnitten sind im Voranzeigemodus nicht funktionsfähig
- Verbindung zum Notebook-Kernel kann nicht hergestellt werden
- ERROR_RESOURCES_UNAVAILABLE beim Öffnen oder Bearbeiten eines Notebooks
Liste der Probleme für Watson Machine Learning
Liste der Probleme für Cognos Dashboard Embedded
- CSV-Dateien mit doppelten Spaltennamen werden nicht unterstützt
- Cognos -Dashboards können nur Datenverbindungen verwenden, die mit Benutzernamens-und Kennwortberechtigungsnachweisen erstellt wurden.
- Für optimierte Datenassets wird ein falscherDatentyp angezeigt
- Sonderzeichen in CSV-Dateien werden nicht unterstützt
- Zeichenfolgewerte in CSV-Dateien werden auf 128 Zeichenbegrenzt
- Einschränkungen beim Datumsformat für CSV-Dateien
- Datentabelle in einer Visualisierung kann nicht ersetzt werden
- Cognos Analytics-Funktionen werden nicht unterstützt
Liste der Probleme für Watson OpenScale
Liste der Probleme für SPSS Modeler
- Fehler bei dem Versuch, einen aktiven Fluss zu stoppen
- Importierte Data-Asset-Exportknoten können manchmal nicht ausgeführt werden
- Datenvorschau schlägt möglicherweise fehl, wenn Tabellenmetadaten geändert werden
- Die Ausgabe kann nach der Ausführung eines Erweiterungsausgabeknotens nicht angezeigt werden
- Excel-Daten aus COS-Verbindungen können nicht angezeigt werden
- Zahlen als Zeichenfolge interpretiert
- Superknoten mit Importknoten
- In eine SAV-Datei exportieren
- Nachrichtenflüsse auf einem Watson-Machine-Learning-Server ausführen
- Migration von Importknoten
- Textanalyseeinstellungen werden nicht gespeichert
- Unicode-Zeichen für Knoten zusammenführen
Watson Knowledge Catalog
Bei der Arbeit mit Watson Knowledge Catalog treten möglicherweise die folgendenbekannten Probleme und Einschränkungen auf, wenn Sie Kataloge verwenden:
DPS-Kategoriecaches (DPS = Data Policy Service) synchronisieren
Aus Leistungszwecken bewahrt der Data Policy Service (DPS) eine Kopie der Glossarkategorien in Caches auf. Wenn Kategorien erstellt, aktualisiert oder gelöscht werden, veröffentlicht der Glossarservice RabbitMQ -Ereignisse, um diese Änderungen widerzuspiegeln. Der DPS überwacht diese Ereignisse und aktualisiert die Caches. In seltenen Fällen kann die Nachricht jedoch verloren gehen, wenn der RabbitMQ -Service inaktiv oder zu ausgelastet ist. Der DPS stellt ein REST-API-Dienstprogramm zum Aktualisieren des Cache bereit.
Sie können das folgende REST-API-Dienstprogramm während einer Ausfallzeit ohne Kategorieänderungen ausführen, um unerwartete Durchsetzungsergebnisse während der Ausführung zu vermeiden und ungenaue Cacheaktualisierungen zu vermeiden:
curl -v -k -X GET --header "Content-Type: application/json"
--header "Accept: application/json"
--header "Authorization: Bearer ${token}"
"${uri}/v3/enforcement/governed_items/sync/category"
Diese REST-API ist im Service Watson Knowledge Catalog verfügbar.
Maskierte Daten werden in Datenvisualisierungen nicht unterstützt.
Maskierte Daten werden in Datenvisualisierungen nicht unterstützt. Wenn Sie beim Generieren eines Diagramms auf der Registerkarte Visualisierungen eines Datenassets in einem Projekt versuchen, mit maskierten Daten zu arbeiten, wird die folgende Fehlernachricht empfangen: Bad Request: Failed to retrieve data from server. Masked data is not supported
.
Daten werden in einigen Projekttools nicht maskiert
Wenn Sie ein verbundenes Datenasset, das über maskierte Spalten aus einem Katalog verfügt, zu einem Projekt hinzufügen, bleiben die Spalten maskiert, wenn Sie die Daten anzeigen und wenn Sie die Daten im Data Refinery-Tool verfeinern. Bei Verwendung anderer Tools in den Projekten bleibt die Maskierung beim Zugriff auf die Daten über eine Verbindung jedoch nicht erhalten. Wenn Sie beispielsweise verbundene Daten in ein Notebook, einen DataStage -Ablauf, ein Dashboard oder andere Projekttools laden, greifen Sie über eine direkte Verbindung auf die Daten zu und umgehen die Maskierung.
Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar
Wenn keine vordefinierten Klassifikationen oder Datenklassen angezeigt werden, reinitialisieren Sie Ihren Tenant mit dem folgenden API-Aufruf:
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
Mitarbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen
Geben Sie beim Hinzufügen von Mitarbeitern zum Katalog die E-Mail-Adressen vollständig in Kleinbuchstaben ein. E-Mail-Adressen in Groß-/Kleinschreibung werden nicht unterstützt.
Einschränkungen bei ObjectStorage-Verbindungen
Bei einer Cloud Object Storage-Verbindung (S3-API) oder einer Cloudant-Verbindung wirdder Ordner selbst als untergeordnetes Asset aufgeführt.
Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl
Es kann ein Fehler auftreten, wenn mehrere Benutzer gleichzeitig Verbindungsoperationen ausführen. Die Fehlernachricht kann unterschiedlich lauten.
Die Durchsetzung von Datenschutzregeln kann nach der Katalogerstellung nicht aktiviert werden
Sie können die Durchsetzung von Datenschutzregeln nicht aktivieren, nachdem Sie einen Katalog erstellt haben. Wenn Sie Datenschutzregeln auf Assets in einem Katalog anwenden möchten, müssen Sie die Durchsetzung während der Katalogerstellung aktivieren.
Assets werden blockiert, wenn Auswertung fehlschlägt
Die folgenden Einschränkungen gelten für Datenassets in einem Katalog mit Richtliniendurchsetzung: Dateibasierte Datenassets mit Header dürfen weder doppelten Spaltennamen, noch einen Punkt (.) oder einfache Anführungszeichen (') in einem Spaltennamen enthalten.
Wenn die Auswertung fehlschlägt, wird das Asset für alle Benutzer mit Ausnahme des Asseteigners blockiert. Allen anderen Benutzern wird eine Fehlernachricht angezeigt, die besagt, dass das Datenasset nicht angezeigt werden kann, weil die Auswertung fehlgeschlagen ist und das Asset blockiert ist.
Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet
Beim Filtern der Ergebnisse der Metadatenaufbereitung in der Registerkarte Spalte wird die Groß-/Kleinschreibung nur bei den Einträgen für Datenklasse beachtet. Die Einträge in den Filtern für Geschäftsbegriffe, Schemas und Assets werden in Kleinschreibung dargestellt, unabhängig von der tatsächlichen Schreibweise für den jeweiligen Wert.
Filteroptionen in den Ergebnissen der Metadatenaufbereitung werden möglicherweise nicht sofort aktualisiert
Wenn Sie Assets hinzufügen, neue Datenklassen oder Geschäftsbegriffe zuordnen oder Geschäftsbegriffe entfernen, werden die zugehörigen Filter nicht sofort aktualisiert. Um das Problem zu umgehen, aktualisieren Sie den Browser, damit die aktualisierten Filterlisten angezeigt werden.
Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden
Nach dem Bearbeiten der Aufbereitungsoptionen für eine Metadatenaufbereitung, die mindestens einmal ausgeführt wurde, werden in den Assetdetails möglicherweise die aktualisierten Optionen angezeigt und nicht die Optionen, die bei der letzten Ausführung der Metadatenaufbereitung angewendet wurden.
Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden
Wenn sich die Anzahl der Assets oder Spalten in einem Asset für Metadatenaufbereitung über mehrere Seiten erstreckt, können Sie nicht direkt zu einer bestimmten Seite wechseln. Die Dropdown-Liste für Seitennummern ist inaktiviert. Verwenden Sie stattdessen die Schaltflächen Nächste Seite und Vorherige Seite.
In den Aufbereitungsergebnissen für eine Spalte werden unvollständige Details für eine zugeordnete Datenklasse angezeigt
Wenn Sie auf die zugeordnete Datenklasse in der Registerkarte Governance der Spaltendetails in den Ergebnissen der Metadatenaufbereitung klicken, wird eine Vorschau der Datenklassendetails angezeigt. Die angezeigten Details sind jedoch unvollständig.
In einigen Fällen wird möglicherweise nicht das vollständige Protokoll eines Jobs zur Metadatenaufbereitung in der Benutzerschnittstelle angezeigt.
Wenn die Liste der Fehler in einer Ausführung der Metadatenaufbereitung außergewöhnlich lang ist, wird möglicherweise nur ein Teil des Jobprotokolls in der Benutzerschnittstelle angezeigt.
Problemumgehung: Laden Sie das gesamte Protokoll herunter und analysieren Sie es in einem externen Editor.
Möglicherweise fehlen Schemainformationen, wenn Sie Aufbereitungsergebnisse filtern
Wenn Sie Assets oder Spalten in den Aufbereitungsergebnissen nach Quelleninformationen filtern, sind möglicherweise keine Schemainformationen verfügbar.
Problemumgehung: Führen Sie den Aufbereitungsjob erneut aus und wenden Sie den Filter Quelle erneut an.
Probleme mit der Suche auf der Registerkarte 'Assets' eines Assets für die Metadatenaufbereitung
Wenn Sie auf der Registerkarte Assets eines Assets für die Metadatenaufbereitung nach einem Asset suchen, werden möglicherweise keine Ergebnisse zurückgegeben. Beachten Sie die folgenden Einschränkungen:
- Bei der Suche muss die Groß-/Kleinschreibung beachtet werden.
- Das Ergebnis enthält nur Datensätze, die dem exakten Suchausdruck entsprechen oder mit dem Ausdruck beginnen.
Regeln, die für Spalten des Typs 'Zeit' in Datenassets aus der Datenquelle Amazon Redshift ausgeführt werden, geben keine ordnungsgemäßen Ergebnisse zurück
Für Datenassets aus Amazon Redshift -Datenquellen werden Spalten des Typs 'Zeit' mit dem Typ 'Zeitmarke' importiert. Sie können keine zeitspezifischen Datenqualitätsregeln auf solche Spalten anwenden.
Maskierungsablauf
Wenn Sie den Maskierungsablauf verwenden, können diese bekannten Probleme und Einschränkungen auftreten, wenn Sie Daten privatisieren.
Maskierungsflussjobs können fehlschlagen
Während eines Maskierungsflussjobs versucht Spark möglicherweise, alle Daten einer Datenquelle in den Speicher zu einzulesen. Dabei können Fehler auftreten, wenn nicht genügend Speicher für die erfolgreiche Ausführung des Jobs verfügbar ist. Es passen maximal ca. 12 GB an Daten in den größten bereitgestellten Spark-Verarbeitungsknoten.
Data Refinery
Bei der Arbeit mit Data Refinery treten möglicherweise die folgenden bekanntenProbleme und Einschränkungen auf, wenn Sie Daten optimieren:
Persänliche Berechtigungsnachweise werden für verbundene Datenassets in Data Refinery nicht unterstützt
Wenn Sie ein verbundenes Datenasset mit persönlichen Berechtigungsnachweisen erstellen, müssen andere Benutzer auf die folgende Problemumgehung zurückgreifen, um das verbundene Datenasset in Data Refinery zu verwenden.
Problemumgehung:
- Rufen Sie die Projektseite auf und klicken Sie auf den Link für das verbundene Datenasset, um die Vorschau zu öffnen.
- Geben Sie Berechtigungsnachweise ein.
- Öffnen Sie Data Refinery und verwenden Sie das authentifizierte verbundene Datenasset für eine Quelle oder ein Ziel.
Jobs in Data Refinery-Abläufen können in der Benutzerschnittstelle für neue Projekte nicht angezeigt werden
Wenn Sie in der Benutzerschnittstelle für neue Projekte arbeiten, haben Sie nicht die Möglichkeit, Jobs über das Auswahlmenü in Data Refinery -Abläufenanzuzeigen.
Problemumgehung: Um Jobs in Data Refinery -Flowsanzuzeigen, öffnen Sie einen Data Refinery -Flow, klicken auf das Symbol Jobs und wählen Speichern und -Jobs anzeigen aus. Eine Liste aller Jobs in Ihrem Projekt können Sie auf der Registerkarte Jobs anzeigen.
Probleme bei Watson Studio
Einige dieser Probleme können beim Einstieg in und Verwendung von Watson Studio auftreten.
Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden
Wenn Sie in der Benutzerschnittstelle für neue Projekte arbeiten, können Sie Federated Learning-Assets nicht über die Ansicht Alle Assets , die Suchergebnisse oder die Filterergebnisse Ihres Projekts durchsuchen.
Problemumgehung: Klicken Sie auf das Federated Learning-Asset, um das Tool zu öffnen, oder wechseln Sie zurück zu traditionellen Projekten, um weiterhin die vollständig integrierte Version von Federated Learning in Ihrem Projekt zu verwenden.
Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt
Wenn Sie ein Notebook in der Benutzerschnittstelle für neue Projekte duplizieren, wird das doppelte Notebook nicht mit einem eindeutigen Namen erstellt.
In älteren Konten können keine Assets erstellt werden
Wenn Sie in einer Instanz von Watson Studio arbeiten, die vor November 2017 aktiviert wurde, können Sie möglicherweise keine Betriebsassets wie Notebooks erstellen. Wenn die Schaltfläche Erstellen abgeblendet und inaktiviert bleibt, müssen Sie den Watson Studio-Service aus dem Servicekatalog zu Ihrem Konto hinzufügen.
Beim Starten von Watson Studio wird der Fehlercode 500 ('Interner Serverfehler') empfangen
In seltenen Fällen erhalten Sie beim Starten von Watson Studio möglicherweise einen internen HTTP-Serverfehler (500). Dies kann durch ein abgelaufenes Cookie verursacht werden, das für den Browser gespeichert ist. Um zu bestätigen, dass der Fehler durch ein veraltetes Cookie verursacht wurde, versuchen Sie, Watson Studio in einer privaten Browsersitzung (incognito) oder unter Verwendung eines anderen Browsers zu starten. Wenn der Start in einem neuen Browser erfolgreich ist, wurde der Fehler durch ein abgelaufenes Cookie verursacht. Es stehen eine Reihe von Lösungen zur Verfügung:
- Beenden Sie die Browseranwendung vollständig, um das Cookie zurückzusetzen. Sie müssen dabei die Anwendung schließen und erneut starten, nicht nur einfach das Browserfenster schließen. Starten Sie die Browseranwendung erneut und starten Sie Watson Studio, um das Sitzungscookie zurückzusetzen.
- Löschen Sie die IBM Cookies aus den Browsing-Daten und starten Sie Watson Studio. Sehen Sie sich zum Löschen von Cookies die Browsing-Daten oder Sicherheitsoptionen im Browser an. Beachten Sie, dass das Löschen aller IBM Cookies möglicherweise Auswirkungen auf andere IBM Anwendungen hat.
Wenn der Fehlercode 500 nach dem Anwenden einer dieser Lösungen bestehen bleibt, überprüfen Sie die Statusseite auf IBM Cloud-Vorfälle, die sich auf Watson Studio auswirken. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support-Portal öffnen.
Fehler bei der Anmeldung
Beim Anmelden an Watson Studio wird möglicherweise diese Fehlernachricht angezeigt: 'Access Manager WebSEAL konnte Ihre Anfrage aufgrund eines unerwarteten Fehlers nicht abschließen.' Versuchen Sie erneut sich anzumelden. In der Regel ist der zweite Anmeldeversucherfolgreich.
ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt
Einige TensorFlow-Bibliotheken sind vorinstalliert, aber wenn Sie versuchen,zusätzliche TensorFlow-Bibliotheken selbst zu installieren, tritt ein Fehler auf.
Das Herstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einerCodezelle länger als erwartet
Wenn Sie versuchen, die Verbindung zum Kernel wiederherzustellen und sofort eine Codezelle ausführen (bzw. wenn die Kernelverbindung während der Codeausführung wiederhergestellt wurde), stellt das Notebook die Verbindung zum Kernel nicht wieder her und für die Codezelle wird keine Ausgabe angezeigt. Sie müssen die Verbindung zum Kernel manuell wiederherstellen, indem Sie auf Kernel > Verbindung wiederherstellen klicken. Wenn der Kernel bereit ist, könnenSie versuchen, die Codezelle erneut auszuführen.
DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler
Möglicherweise tritt ein Apache Spark-Fehler auf, wenn Sie das vordefiniertesqlContext-Objekt in mehreren Notebooks verwenden. Erstellen Sie für jedes Notebookein neues sqlContext-Objekt. Weitere Informationen finden Sie in dieser Erläuterung zu Stack Overflow.
Nachricht wegen fehlgeschlagener Verbindung
Wenn Ihr Kernel gestoppt wird, erfolgt keine automatische Speicherung Ihres Notebooksmehr. Klicken Sie zum Speichern des Notebooks manuell auf Datei > Speichern. Daraufhin müsste im Bereich für Kernelinformationen vor der Spark-Version die Nachricht Notebook gespeichert angezeigt werden. Wenn eine Nachricht darauf hinweist, dass der Kernel fehlgeschlagen ist, klicken Sie auf Kernel > Verbindung wiederherstellen, um Ihr Notebook wieder mit dem Kernel zu verbinden. Wenn Ihre Versuche zum erneuten Starten des Kernels erfolglos bleiben und das Notebook nicht gespeichert werden kann, laden Sie es herunter, um die Änderungen zu speichern. Klicken Sie dazu auf Datei > Herunterladen als > Notebook (.ipynb). Anschließend müssen Sie auf Basis Ihrer heruntergeladenenNotebookdatei ein neues Notebook erstellen.
Hyperlinks zu Notebook-Abschnitten sind im Voranzeigemodus nicht funktionsfähig
Wenn Ihr Notebook Abschnitte enthält, die Sie beispielsweise über einen Einführungsabschnitt am oberen Rand des Notebooks verlinken, werden die Links zu diesen Abschnitten nicht funktionieren, wenn das Notizbuch im Modus 'Nur anzeigen' in Firefox geöffnet wurde. Wenn Sie das Notizbuch jedoch im Bearbeitungsmodus öffnen, werden diese Links funktionieren.
Verbindung zum Notebook-Kernel kann nicht hergestellt werden
Wenn Sie versuchen, ein Notebook auszuführen, und nach den Nachrichten Connecting to Kernel
und Connection failed. Reconnecting
eine Fehlernachricht für fehlgeschlagene Verbindung ausgegeben wird, kann dies bedeuten, dass die Ausführung des Notebooks durch Ihre Firewall blockiert wird.
Wenn Watson Studio hinter einer Firewall installiert ist, müssen Sie die WebSocket-Verbindung wss://dataplatform.cloud.ibm.com
in den Firewalleinstellungen hinzufügen. Die Aktivierung dieser WebSocket-Verbindung ist erforderlich, wenn Sie Notebooks und RStudio verwenden.
Probleme mit Watson Machine Learning
Bei der Arbeit mit Watson Machine Learning -Komponenten, einschließlich Model Builder und Flow Editor, können einige dieser Probleme auftreten.
Anforderungen an die Region
Sie können Ihrem Projekt nur dann eine Watson Machine Learning -Serviceinstanz zuordnen, wenn sich die Watson Machine Learning -Serviceinstanz und die Watson Studio -Instanz in derselben Region befinden.
Laufzeiteinschränkungen beiAblaufeditor
Watson Studio enthält in Peru, Ecuador, Kolumbien und Venezuela keineSPSS-Funktionalität.
Probleme bei der Bereitstellung
- Eine Bereitstellung, die eine bestimmte Zeit lang inaktiv ist (24 Stunden für denkostenlosen Plan oder 120 Stunden für einen bezahlten Plan), wird automatisch in denHibernationsmodus versetzt. Bei Übergabe einer neuen Scoring-Anforderung wird dieBereitstellung reaktiviert und die Scoring-Anforderung verarbeitet. Je nachModellframework kann es nach der Aktivierung zu einer Verzögerung von bis zu 60Sekunden für die erste Scoring-Anforderung kommen.
- Bei einigen Frameworks (z. B. SPSS Modeler) kann die erste Scoring-Anforderung fürein bereitgestelltes Modell nach der Hibernation zu einem Fehler 504 führen. Ist dies derFall, übergeben Sie die Anforderung erneut; nachfolgende Anforderungen sollten dannerfolgreich sein.
Bekannte Einschränkungen bei AutoAI
Derzeit werden bei AutoAI-Experimenten keine Doppelbytezeichensätzeunterstützt. AutoAI unterstützt nur CSV-Dateien mit ASCII-Zeichen. Benutzer müssen alle Nicht-ASCII-Zeichen im Dateinamen oder Inhalt konvertieren und Eingabedaten CSV-Format bereitstellen, wie in diesem CSV-Standard definiert.
Verwenden Sie die REST-API anstelle des Python-Clients, um programmgestützt miteinem AutoAI-Modell zu interagieren. Die APIs für den Python-Client, die für dieUnterstützung von AutoAI erforderlich sind, stehen zurzeit nicht zur Verfügung.
Datenmodul wird in IBM Federated Learning nicht gefunden
Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
Das Problem wird möglicherweise durch die Verwendung eines veralteten Datenhandlers verursacht. Überprüfen und aktualisieren Sie Ihren Datenhandler so, dass er der neuesten Spezifikation entspricht. Hier der Link zum neuesten MNIST-Datenhandler; oder stellen Sie sicher, dass die Beispielversionen in Ihrer Galerie auf dem neuesten Stand sind.
Vorschau maskierter Datenassets ist im Bereitstellungsbereich blockiert * *
Eine Datenassetvorschau kann mit der folgenden Nachricht fehlschlagen: This asset contains masked data and is not supported for preview in the Deployment Space
Bereitstellungsbereiche unterstützen derzeit keine Maskierung von Daten. Daher wurde die Vorschau für maskierte Assets blockiert, um Datenlecks zu vermeiden.
SPSS Modeler-Probleme
Bei der Arbeit in SPSS Modeler können Sie auf einige der folgenden Probleme stoßen.
Fehler beim Stoppen eines aktiven Flusses
Beim Ausführen eines SPSS Modeler-Ablaufs tritt möglicherweise ein Fehler auf, wenn Sie versuchen, den Ablauf über die Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts zu stoppen. Um die SPSS Modeler-Laufzeit und den CUH-Verbrauch vollständig zu stoppen, schließen Sie die Browserregisterkarte(n), in der/denen Sie den Ablauf geöffnet haben.
Importierte Data-Asset-Exportknoten werden manchmal nicht ausgeführt
Wenn Sie einen neuen Ablauf erstellen, indem Sie einen SPSS Modeler-Datenstrom (.str -Datei) importieren, den Exportknoten migrieren und anschließend den resultierenden Datenasset-Exportknoten ausführen, kann die Ausführung fehlschlagen. Gehen Sie wie folgt vor, um dieses Problem zu umgehen: Führen Sie den Knoten erneut aus, ändern Sie den Ausgabenamen und ändern Sie die Option Wenn das Dataset bereits vorhanden ist in den Knoteneigenschaften. Führen Sie den Knoten anschließend erneut aus.
Datenvorschau kann fehlschlagen, wenn Tabellenmetadaten geändert wurden
In einigen Fällen kann die Datenvorschau bei der Verwendung des Datenasset-Importknotens zum Importieren von Daten aus einer Verbindung einen Fehler zurückgeben, wenn sich die zugrunde liegenden Tabellenmetadaten (Datenmodell) geändert haben. Erstellen Sie den Datenassetknoten erneut, um das Problem zu beheben.
Die Ausgabe kann nach der Ausführung eines Erweiterungsausgabeknotens nicht angezeigt werden.
Bei der Ausführung eines Erweiterungsausgabeknotens mit der Option Ausgabe in Datei gibt die resultierende Ausgabedatei einen Fehler zurück, wenn Sie versuchen, die Datei über die Anzeige 'Ausgaben' zu öffnen.
Excel-Daten aus COS-Verbindungen können nicht angezeigt werden
Derzeit können Sie keine Vorschau für .xls- oder .xlsx-Daten aus einer COS-Verbindung anzeigen.
Zahlen, die als Zeichenfolge interpretiert werden
Jede Zahl mit einer Genauigkeit größer-gleich 32 und einer Anzahl der Kommastellen gleich 0 wird als Zeichenfolge interpretiert. Wenn Sie dieses Verhalten ändern müssen, können Sie das Feld stattdessen mithilfe eines Füllerknotens mit dem Ausdruck 'to_real(@FIELD)' in eine reelle Zahl umsetzen.
Superknoten mit Importknoten
Wenn Ihr Ablauf über einen Superknoten verfügt, der einen Importknoten enthält, wird das Eingabeschema möglicherweise nicht ordnungsgemäß festgelegt, wenn Sie das Modell mit der Option Scoring-Verzweigung speichern. Um dieses Problem zu umgehen, erweitern Sie den Superknoten, bevor Sie speichern.
In eine SAV-Datei exportieren
Wenn Sie den Export in eine SPSS Statistics-SAV-Datei (.sav) mithilfe eines Data Asset Export-Knotens durchführen, funktioniert die Option Datenasset ersetzen nicht, wenn das Eingabeschema nicht mit dem Ausgabeschema übereinstimmt. Das Schema der vorhandenen Datei, die ersetzt werden soll, muss übereinstimmen.
Abläufe auf einer Watson Machine Learning Server-Instanz ausführen
Wenn Sie Abläufe auf einer Watson Machine Learning Server-Instanz ausführen, können die folgenden Probleme auftreten:
- Wenn ein Ablauf auf eine Verbindung verweist, muss die Verbindung sowohl auf der lokalen Maschine (zum Konfigurieren der Verbindung) als auch auf der fernen Watson Machine Learning Server-Instanz (zum Ausführen des Ablaufs) zugänglich sein.
- Wenn ein Fluss Text Analytics-Knoten enthält, können Sie ihn nicht auf einem Watson Machine Learning Server ausführen. In diesem Fall muss der Fluss lokal ausgeführt werden.
- Importieren Sie eine Datenstromdatei (.str), für die eine Migration erforderlich ist, nicht in einen Ablauf, der auf der Watson Machine Learning Server-Instanz ausgeführt wird.
Migration von Importknoten
Wenn Sie einen Datenstrom (.str) in Ihren Ablauf importieren, der in SPSS Modeler Desktop erstellt wurde und mindestens einen nicht unterstützten Importknoten enthält, werden Sie aufgefordert, die Importknoten in Datenassets zu migrieren. Falls der Datenstrom mehrere Importknoten enthält, die dieselbe Datendatei verwenden, müssen Sie vor der Migration zunächst diese Datei als Datenasset zu Ihrem Projekt hinzufügen, weil die Migration dieselbe Datei nicht auf mehrere Importknoten hochladen kann. Nachdem Sie das Datenasset zu Ihrem Projekt hinzugefügt haben, öffnen Sie den Ablauf erneut und setzen Sie die Migration unter Verwendung des neuen Datenassets fort.
Textanalyseeinstellungen werden nicht gespeichert
Nachdem Sie die Text Analytics Workbench geschlossen haben, werden alle von Ihnen geänderten Filter-oder Kategorieerstellungseinstellungen nicht wie erforderlich im Knoten gespeichert.
Knoten und Unicode-Zeichen zusammenführen
Der Zusammenführungsknoten behandelt die folgenden sehr ähnlichen japanischen Zeichen als dasselbe Zeichen.
Watson Pipelines -bekannte Probleme
Die Probleme betreffen Watson Pipelines.
Verschachtelungsschleifen mit mehr als zwei Ebenen können zu Pipelinefehlern führen
Verschachtelungsschleifen mit mehr als zwei Ebenen können zu einem Fehler führen, wenn Sie die Pipeline ausführen, z. B. Fehler beim Abrufen der Ausführung. Wenn Sie die Protokolle prüfen, kann ein Fehler wie text in text not resolved: neither pipeline_input nor node_output
angezeigt werden. Wenn Sie eine Schleife mit der Ausgabe eines Bash-Scripts erstellen, wird im Protokoll möglicherweise ein Fehler wie der folgende aufgelistet: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output)
. Um das Problem zu beheben, verschachteln Sie Schleifen nicht mehr als zwei Ebenen.
Asset-Browser spiegelt nicht immer die Anzahl für die Gesamtzahl des Assettyps wider
When selecting an asset from the asset browser, such as choosing a source for a Copy node, you see that some of the assets list the total number of that asset type available, but notebooks do not. Dies ist eine aktuelle Einschränkung.
Pipeline-Versionen können nicht gelöscht werden
Derzeit können Sie gespeicherte Versionen von Pipelines, die Sie nicht mehr benötigen, nicht löschen.
Das Löschen eines AutoAI-Experiments schlägt unter bestimmten Umständen fehl
Bei Verwendung eines AutoAI-Experiment löschen-Knotens zum Löschen eines AutoAI-Experiments, das über die Benutzerschnittstelle für Projekte erstellt wurde, wird das AutoAI-Asset nicht gelöscht. Der restliche Ablauf wird jedoch erfolgreich durchgeführt.
Cache scheint aktiviert zu sein, ist aber nicht aktiviert
Wenn der Kopiermodus des Pipelines-Knotens Assets kopieren auf Overwrite
gesetzt ist, wird der Cache als aktiviert angezeigt, bleibt aber inaktiviert.
Einschränkungen für Watson Pipelines
Diese Einschränkungen gelten für Watson Pipelines.
- Grenzwerte für einzelne Pipeline
- Einschränkungen nach Konfigurationsgröße
- Grenzwerte für Eingabe-und Ausgabegröße
- Batcheingabe auf Datenassets beschränkt
Grenzwerte für einzelne Pipelines
Diese Einschränkung gilt unabhängig von der Konfiguration für eine einzelne Pipeline.
- Jede einzelne Pipeline darf nicht mehr als 120 Standardknoten enthalten
- Jede Pipeline mit einer Schleife kann nicht mehr als 600 Knoten in allen Iterationen enthalten (z. B. 60 Iterationen-jeweils 10 Knoten).
Einschränkungen nach Konfigurationsgröße
Einstiegslösung mit begrenztem Umfang
Eine SMALL-Konfiguration unterstützt 600 Standardknoten (über alle aktiven Pipelines hinweg) oder 300 Knoten werden in einer Schleife ausgeführt. Beispiel:
- 30 Standardpipelines mit 20 Knoten werden parallel ausgeführt = 600 Standardknoten
- Einzelne Pipeline mit einer Schleife mit 30 Iterationen und 10 Knoten in jeder Iteration = 300 Knoten in einer Schleife
Lösung mit mittelgroßem Umfang
Eine MEDIUM-Konfiguration unterstützt 1200 Standardknoten (über alle aktiven Pipelines hinweg) oder 600 Knoten laufen in einer Schleife. Beispiel:
- 30 Standardpipelines mit 40 Knoten werden parallel ausgeführt = 1200 Standardknoten
- einzelne Pipeline mit einer Schleife mit 60 Iterationen und 10 Knoten in jeder Iteration = 600 Knoten in einer Schleife
Große Lösung
Eine LARGE-Konfiguration unterstützt 4800 Standardknoten (über alle aktiven Pipelines hinweg) oder 2400 Knoten werden in einer Schleife ausgeführt. Beispiel:
- 80 Standardpipelines mit 60 Knoten laufen parallel = 4800 Standardknoten
- 4 Pipelines mit einer Schleife mit 60 Iterationen und 10 Knoten in jeder Iteration = 2400 Knoten in einer Schleife
Größenbegrenzungen für Eingabe und Ausgabe
Eingabe-und Ausgabewerte, die Pipelineparameter, Benutzervariablen und generische Knoteneingaben und -ausgaben enthalten, dürfen 10 KB an Daten nicht überschreiten.
Batcheingabe auf Datenassets beschränkt
Derzeit ist die Eingabe für Batchbereitstellungsjobs auf Datenassets beschränkt. Dies bedeutet, dass bestimmte Typen von Implementierungen, die JSON-Eingabe oder mehrere Dateien als Eingabe erfordern, nicht unterstützt werden. So werden z. B. SPSS-Modelle und Decision Optimization-Lösungen, für die mehrere Dateien als Eingabe erforderlich sind, nicht unterstützt.