Bekannte Probleme und Einschränkungen
Die folgenden Einschränkungen und bekannten Probleme gelten für watsonx.
Data Refinery
Bei der Arbeit mit Data Refinery treten möglicherweise die folgenden bekanntenProbleme und Einschränkungen auf, wenn Sie Daten optimieren:
Jobs in Data Refinery-Abläufen können in der Benutzerschnittstelle für neue Projekte nicht angezeigt werden
Wenn Sie in der Benutzerschnittstelle für neue Projekte arbeiten, haben Sie nicht die Möglichkeit, Jobs über das Auswahlmenü in Data Refinery -Abläufenanzuzeigen.
Problemumgehung: Um Jobs in Data Refinery -Flowsanzuzeigen, öffnen Sie einen Data Refinery -Flow, klicken Sie auf das Symbol Jobs und wählen Sie Speichern und Jobs anzeigen aus. Eine Liste aller Jobs in Ihrem Projekt können Sie auf der Registerkarte Jobs anzeigen.
Probleme bei Notebooks
Bei den ersten Schritten mit und bei der Verwendung von Notebooks können einige dieser Probleme auftreten.
ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt
Einige TensorFlow-Bibliotheken sind vorinstalliert, aber wenn Sie versuchen,zusätzliche TensorFlow-Bibliotheken selbst zu installieren, tritt ein Fehler auf.
Das Herstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einerCodezelle länger als erwartet
Wenn Sie versuchen, die Verbindung zum Kernel wiederherzustellen und sofort eine Codezelle ausführen (bzw. wenn die Kernelverbindung während der Codeausführung wiederhergestellt wurde), stellt das Notebook die Verbindung zum Kernel nicht wieder her und für die Codezelle wird keine Ausgabe angezeigt. Sie müssen die Verbindung zum Kernel manuell wiederherstellen, indem Sie auf Kernel > Verbindung wiederherstellen klicken. Wenn der Kernel bereit ist, könnenSie versuchen, die Codezelle erneut auszuführen.
DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler
Möglicherweise tritt ein Apache Spark-Fehler auf, wenn Sie das vordefiniertesqlContext-Objekt in mehreren Notebooks verwenden. Erstellen Sie für jedes Notebookein neues sqlContext-Objekt. Weitere Informationen finden Sie in dieser Erläuterung zu Stack Overflow.
Nachricht wegen fehlgeschlagener Verbindung
Wenn Ihr Kernel gestoppt wird, erfolgt keine automatische Speicherung Ihres Notebooksmehr. Klicken Sie zum Speichern des Notebooks manuell auf Datei > Speichern. Daraufhin müsste im Bereich für Kernelinformationen vor der Spark-Version die Nachricht Notebook gespeichert angezeigt werden. Wenn eine Nachricht darauf hinweist, dass der Kernel fehlgeschlagen ist, klicken Sie auf Kernel > Verbindung wiederherstellen, um Ihr Notebook wieder mit dem Kernel zu verbinden. Wenn Ihre Versuche zum erneuten Starten des Kernels erfolglos bleiben und das Notebook nicht gespeichert werden kann, laden Sie es herunter, um die Änderungen zu speichern. Klicken Sie dazu auf Datei > Herunterladen als > Notebook (.ipynb). Anschließend müssen Sie auf Basis Ihrer heruntergeladenenNotebookdatei ein neues Notebook erstellen.
Hyperlinks zu Notebook-Abschnitten sind im Voranzeigemodus nicht funktionsfähig
Wenn Ihr Notebook Abschnitte enthält, die Sie beispielsweise über einen Einführungsabschnitt am oberen Rand des Notebooks verlinken, werden die Links zu diesen Abschnitten nicht funktionieren, wenn das Notizbuch im Modus 'Nur anzeigen' in Firefox geöffnet wurde. Wenn Sie das Notizbuch jedoch im Bearbeitungsmodus öffnen, werden diese Links funktionieren.
Verbindung zum Notebook-Kernel kann nicht hergestellt werden
Wenn Sie versuchen, ein Notebook auszuführen, und nach den Nachrichten Connecting to Kernel
und Connection failed. Reconnecting
eine Fehlernachricht für fehlgeschlagene Verbindung ausgegeben wird, kann dies bedeuten, dass die Ausführung des Notebooks durch Ihre Firewall blockiert wird.
Wenn Watson Studio hinter einer Firewall installiert ist, müssen Sie die WebSocket-Verbindung wss://dataplatform.cloud.ibm.com
in den Firewalleinstellungen hinzufügen. Die Aktivierung dieser WebSocket-Verbindung ist erforderlich, wenn Sie Notebooks und RStudio verwenden.
Probleme beim maschinellen Lernen
Beim Arbeiten mit Tools für maschinelles Lernen können einige dieser Probleme auftreten.
Anforderungen an die Region
Sie können nur auf das Tool 'Prompt Lab' und die Basismodellinferenz zugreifen, wenn Sie sowohl die Watson Studio -als auch die Watson Machine Learning -Services in der Region Dallas bereitgestellt haben.
Sie können Ihrem Projekt nur dann eine Watson Machine Learning -Serviceinstanz zuordnen, wenn sich die Watson Machine Learning -Serviceinstanz und die Watson Studio -Instanz in derselben Region befinden.
Auf Links zugreifen, wenn Sie beim Zuordnen eines Service zu einem Projekt eine Serviceinstanz erstellen
Wenn Sie einen Watson Machine Learning -Service einem Projekt zuordnen, können Sie eine neue Serviceinstanz erstellen. Wenn Sie einen neuen Service erstellen möchten, funktionieren die Links auf der Serviceseite möglicherweise nicht. Um auf Servicebedingungen, APIs und Dokumentation zuzugreifen, klicken Sie mit der rechten Maustaste auf die Links, um sie in neuen Fenstern zu öffnen.
Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden
Sie können Federated Learning-Assets nicht über die Ansicht Alle Assets , die Suchergebnisse oder die Filterergebnisse Ihres Projekts durchsuchen.
Problemumgehung Klicken Sie auf das Federated Learning-Asset, um das Tool zu öffnen.
Probleme bei der Bereitstellung
- Eine Bereitstellung, die eine bestimmte Zeit lang inaktiv ist (24 Stunden für denkostenlosen Plan oder 120 Stunden für einen bezahlten Plan), wird automatisch in denHibernationsmodus versetzt. Bei Übergabe einer neuen Scoring-Anforderung wird dieBereitstellung reaktiviert und die Scoring-Anforderung verarbeitet. Je nachModellframework kann es nach der Aktivierung zu einer Verzögerung von bis zu 60Sekunden für die erste Scoring-Anforderung kommen.
- Bei einigen Frameworks (z. B. SPSS Modeler) kann die erste Scoring-Anforderung fürein bereitgestelltes Modell nach der Hibernation zu einem Fehler 504 führen. Ist dies derFall, übergeben Sie die Anforderung erneut; nachfolgende Anforderungen sollten dannerfolgreich sein.
Bekannte Einschränkungen bei AutoAI
Derzeit werden bei AutoAI-Experimenten keine Doppelbytezeichensätzeunterstützt. AutoAI unterstützt nur CSV-Dateien mit ASCII-Zeichen. Benutzer müssen alle Nicht-ASCII-Zeichen im Dateinamen oder Inhalt konvertieren und Eingabedaten CSV-Format bereitstellen, wie in diesem CSV-Standard definiert.
Verwenden Sie die REST-API anstelle des Python-Clients, um programmgestützt miteinem AutoAI-Modell zu interagieren. Die APIs für den Python-Client, die für dieUnterstützung von AutoAI erforderlich sind, stehen zurzeit nicht zur Verfügung.
Datenmodul wird in IBM Federated Learning nicht gefunden
Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
Das Problem wird möglicherweise durch die Verwendung eines veralteten Datenhandlers verursacht. Überprüfen und aktualisieren Sie Ihren Datenhandler so, dass er der neuesten Spezifikation entspricht. Hier ist der Link zum neuesten MNIST-Datenhandler oder stellen Sie sicher, dass Ihre Beispielversionen aktuell sind.
SPSS Modeler-Probleme
Bei der Arbeit in SPSS Modeler können Sie auf einige der folgenden Probleme stoßen.
Einschränkungen der SPSS Modeler -Laufzeit
Watson Studio enthält in Peru, Ecuador, Kolumbien und Venezuela keineSPSS-Funktionalität.
Fehler beim Stoppen eines aktiven Flusses
Beim Ausführen eines SPSS Modeler-Ablaufs tritt möglicherweise ein Fehler auf, wenn Sie versuchen, den Ablauf über die Seite Umgebungen auf der Registerkarte Verwalten Ihres Projekts zu stoppen. Um die SPSS Modeler -Laufzeit und die CUH-Nutzung vollständig zu stoppen, schließen Sie die Browserregisterkarten, auf denen der Ablauf geöffnet ist.
Importierte Data-Asset-Exportknoten können manchmal nicht ausgeführt werden
Wenn Sie einen neuen Ablauf erstellen, indem Sie einen SPSS Modeler-Datenstrom (.str -Datei) importieren, den Exportknoten migrieren und anschließend den resultierenden Datenasset-Exportknoten ausführen, kann die Ausführung fehlschlagen. Gehen Sie wie folgt vor, um dieses Problem zu umgehen: Führen Sie den Knoten erneut aus, ändern Sie den Ausgabenamen und ändern Sie die Option Wenn das Dataset bereits vorhanden ist in den Knoteneigenschaften. Führen Sie den Knoten anschließend erneut aus.
Datenvorschau kann fehlschlagen, wenn Tabellenmetadaten geändert wurden
In einigen Fällen kann die Datenvorschau bei der Verwendung des Datenasset-Importknotens zum Importieren von Daten aus einer Verbindung einen Fehler zurückgeben, wenn sich die zugrunde liegenden Tabellenmetadaten (Datenmodell) geändert haben. Erstellen Sie den Datenassetknoten erneut, um das Problem zu beheben.
Die Ausgabe kann nach der Ausführung eines Erweiterungsausgabeknotens nicht angezeigt werden
Bei der Ausführung eines Erweiterungsausgabeknotens mit der Option Ausgabe in Datei gibt die resultierende Ausgabedatei einen Fehler zurück, wenn Sie versuchen, die Datei über die Anzeige 'Ausgaben' zu öffnen.
Excel-Daten aus IBM Cloud Object Storage -Verbindungen können nicht vorangezeigt werden
Derzeit können keine XLS-oder XLSX-Daten aus einer IBM Cloud Object Storage -Verbindung vorangezeigt werden.
Zahlen als Zeichenfolge interpretiert
Jede Zahl mit einer Genauigkeit größer-gleich 32 und einer Anzahl der Kommastellen gleich 0 wird als Zeichenfolge interpretiert. Wenn Sie dieses Verhalten ändern müssen, können Sie das Feld stattdessen mithilfe eines Füllerknotens mit dem Ausdruck 'to_real(@FIELD)' in eine reelle Zahl umsetzen.
Superknoten mit Importknoten
Wenn Ihr Ablauf über einen Superknoten verfügt, der einen Importknoten enthält, wird das Eingabeschema möglicherweise nicht ordnungsgemäß festgelegt, wenn Sie das Modell mit der Option Scoring-Verzweigung speichern. Um dieses Problem zu umgehen, erweitern Sie den Superknoten, bevor Sie speichern.
In eine SAV-Datei exportieren
Wenn Sie den Export in eine SPSS Statistics-SAV-Datei (.sav) mithilfe eines Data Asset Export-Knotens durchführen, funktioniert die Option Datenasset ersetzen nicht, wenn das Eingabeschema nicht mit dem Ausgabeschema übereinstimmt. Das Schema der vorhandenen Datei, die ersetzt werden soll, muss übereinstimmen.
Migration von Importknoten
Wenn Sie einen Datenstrom (.str) in Ihren Ablauf importieren, der in SPSS Modeler Desktop erstellt wurde und mindestens einen nicht unterstützten Importknoten enthält, werden Sie aufgefordert, die Importknoten in Datenassets zu migrieren. Wenn der Datenstrom mehrere Importknoten enthält, die dieselbe Datendatei verwenden, müssen Sie diese Datei vor der Migration zunächst als Datenasset zu Ihrem Projekt hinzufügen, da die Migration dieselbe Datei nicht in mehr als einen Importknoten hochladen kann. Nachdem Sie das Datenasset zu Ihrem Projekt hinzugefügt haben, öffnen Sie den Ablauf erneut und setzen Sie die Migration unter Verwendung des neuen Datenassets fort.
Textanalyseeinstellungen werden nicht gespeichert
Nachdem Sie die Text Analytics Workbench geschlossen haben, werden alle von Ihnen geänderten Filter-oder Kategorieerstellungseinstellungen nicht wie erforderlich im Knoten gespeichert.
Knoten und Unicode-Zeichen zusammenführen
Der Zusammenführungsknoten behandelt die folgenden sehr ähnlichen japanischen Zeichen als dasselbe Zeichen.
Watson Pipelines -bekannte Probleme
Die Probleme betreffen Watson Pipelines.
Verschachtelungsschleifen mit mehr als zwei Ebenen können zu Pipelinefehlern führen
Verschachtelungsschleifen mit mehr als zwei Ebenen können zu einem Fehler führen, wenn Sie die Pipeline ausführen, z. B. Fehler beim Abrufen der Ausführung. Wenn Sie die Protokolle prüfen, kann ein Fehler wie text in text not resolved: neither pipeline_input nor node_output
angezeigt werden. Wenn Sie eine Schleife mit der Ausgabe eines Bash-Scripts erstellen, wird im Protokoll möglicherweise ein Fehler wie der folgende aufgelistet: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output)
. Um das Problem zu beheben, verschachteln Sie Schleifen nicht mehr als zwei Ebenen.
Asset-Browser spiegelt nicht immer die Anzahl für die Gesamtzahl des Assettyps wider
When selecting an asset from the asset browser, such as choosing a source for a Copy node, you see that some of the assets list the total number of that asset type available, but notebooks do not. Dies ist eine aktuelle Einschränkung.
Pipeline-Versionen können nicht gelöscht werden
Derzeit können Sie gespeicherte Versionen von Pipelines, die Sie nicht mehr benötigen, nicht löschen.
Das Löschen eines AutoAI-Experiments schlägt unter bestimmten Umständen fehl
Bei Verwendung eines AutoAI-Experiment löschen-Knotens zum Löschen eines AutoAI-Experiments, das über die Benutzerschnittstelle für Projekte erstellt wurde, wird das AutoAI-Asset nicht gelöscht. Der restliche Ablauf wird jedoch erfolgreich durchgeführt.
Cache scheint aktiviert zu sein, ist aber nicht aktiviert
Wenn der Kopiermodus des Pipelines-Knotens Assets kopieren auf Overwrite
gesetzt ist, wird der Cache als aktiviert angezeigt, bleibt aber inaktiviert.
Einschränkungen für Watson Pipelines
Diese Einschränkungen gelten für Watson Pipelines.
- Grenzwerte für einzelne Pipeline
- Einschränkungen nach Konfigurationsgröße
- Grenzwerte für Eingabe-und Ausgabegröße
- Batcheingabe auf Datenassets beschränkt
Grenzwerte für einzelne Pipelines
Diese Einschränkung gilt unabhängig von der Konfiguration für eine einzelne Pipeline.
- Jede einzelne Pipeline darf nicht mehr als 120 Standardknoten enthalten
- Jede Pipeline mit einer Schleife kann nicht mehr als 600 Knoten in allen Iterationen enthalten (z. B. 60 Iterationen-jeweils 10 Knoten).
Einschränkungen nach Konfigurationsgröße
Einstiegslösung mit begrenztem Umfang
Eine SMALL-Konfiguration unterstützt 600 Standardknoten (über alle aktiven Pipelines hinweg) oder 300 Knoten werden in einer Schleife ausgeführt. Zum Beispiel:
- 30 Standardpipelines mit 20 Knoten werden parallel ausgeführt = 600 Standardknoten
- 3 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 300 Knoten in einer Schleife
Lösung mit mittelgroßem Umfang
Eine MEDIUM-Konfiguration unterstützt 1200 Standardknoten (über alle aktiven Pipelines hinweg) oder 600 Knoten laufen in einer Schleife. Zum Beispiel:
- 30 Standardpipelines mit 40 Knoten werden parallel ausgeführt = 1200 Standardknoten
- 6 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 600 Knoten in einer Schleife
Große Lösung
Eine LARGE-Konfiguration unterstützt 4800 Standardknoten (über alle aktiven Pipelines hinweg) oder 2400 Knoten werden in einer Schleife ausgeführt. Zum Beispiel:
- 80 Standardpipelines mit 60 Knoten laufen parallel = 4800 Standardknoten
- 24 Pipelines mit einer Schleife mit 10 Iterationen und 10 Knoten in jeder Iteration = 2400 Knoten in einer Schleife
Größenbegrenzungen für Eingabe und Ausgabe
Eingabe-und Ausgabewerte, die Pipelineparameter, Benutzervariablen und generische Knoteneingaben und -ausgaben enthalten, dürfen 10 KB an Daten nicht überschreiten.
Batcheingabe auf Datenassets beschränkt
Derzeit ist die Eingabe für Batchbereitstellungsjobs auf Datenassets beschränkt. Dies bedeutet, dass bestimmte Typen von Implementierungen, die JSON-Eingabe oder mehrere Dateien als Eingabe erfordern, nicht unterstützt werden. So werden z. B. SPSS-Modelle und Decision Optimization-Lösungen, für die mehrere Dateien als Eingabe erforderlich sind, nicht unterstützt.
Probleme mit Cloud Object Storage
Diese Probleme gelten für die Arbeit mit Cloud Object Storage.
Probleme mit Cloud Object Storage bei aktiviertem Key Protect
Key Protect in Verbindung mit Cloud Object Storage wird für die Arbeit mit Watson Machine Learning -Assets nicht unterstützt. Wenn Sie Key Protectverwenden, können diese Probleme auftreten, wenn Sie mit Assets in Watson Studioarbeiten.
- Das Trainieren oder Speichern dieser Watson Machine Learning -Assets kann fehlschlagen:
- Automatische AI
- Föderiertes Lernen
- Watson Pipelines
- Möglicherweise können Sie ein SPSS -Modell oder ein Notebookmodell nicht in einem Projekt speichern.