Die folgenden bekannten Probleme und Einschränkungen gelten für Cloud Pak for Data as a Service.
- Regionale Einschränkungen
- IBM Knowledge Catalog
- Maskierungsablauf
- Data Virtualization
- watsonx.ai Studio
- Data Refinery
- Visualisierungen
- watsonx.ai Laufzeit
- Watson OpenScale
- SPSS Modeler
- Verbindungen
- Orchestrierungspipelines
- Probleme mitCloud Object Storage
Liste der IBM Knowledge Catalog -Probleme
- Maskierte Daten werden in Datenvisualisierungen nicht unterstützt
- Daten werden in einigen Projekttools nicht maskiert
- Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar
- Mitbearbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen
- Einschränkungen bei ObjectStorage-Verbindungen
- Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl
- Nach der Katalogerstellung können Richtlinien nicht aktiviert werden
- Assets werden blockiert, wenn Auswertung fehlschlägt
- Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet
- Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden
- Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden
- In einigen Fällen wird möglicherweise nicht das vollständige Protokoll einer Jobausführung für die Metadatenaufbereitung in der Benutzerschnittstelle angezeigt
- Beim Filtern von Aufbereitungsergebnissen fehlen möglicherweise Schemainformationen
- Probleme bei der Suche auf der Registerkarte 'Assets' eines Assets für die Metadatenaufbereitung
- Ausgabe der Aufbereitung von Metadaten in eine frühere Version von Apache Hive als 3.0.0
- Filter für Geschäftsbegriffe in Aufbereitungsergebnissen spiegeln Zuordnungsänderungen möglicherweise nicht sofort wider
- Für Assets aus SAP OData-Quellen zeigen die Ergebnisse der Metadatenanreicherung nicht den Tabellentyp an
- Verbindungs-Asset-Typ wird nach der Entfernung nicht dauerhaft gelöscht
- Probleme mit dem Microsoft Excel-Add-In
Liste der Probleme mit Maskierungsabläufen
Liste der Probleme bei Data Virtualization
Liste der Probleme mit watsonx.ai Studio
- Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt
- In älteren Konten können keine Assets erstellt werden
- Fehler bei der Anmeldung
- 500 interner Serverfehler beim Start von watsonx.ai Studio
- Fehler beim Exportieren eines Notebooks in HTML im Editor Jupyter Notebook
- ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt
- DasHerstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einer Codezellelänger als erwartet
- DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler
- Nachricht wegen fehlgeschlagenerVerbindung
- Hyperlinks zu Notebook-Abschnitten sind im Voranzeigemodus nicht funktionsfähig
- Verbindung zum Notebook-Kernel kann nicht hergestellt werden
- Fehler 'Nicht genügend Ressourcen verfügbar' beim Öffnen oder Bearbeiten eines Notebooks
Liste der Einschränkungen von watsonx.ai Studio
Liste der bekannten Probleme mit Data Refinery
Liste der Data Refinery Einschränkungen
Liste der Visualisierungsthemen
Liste der Probleme beim maschinellen Lernen
- Anforderungen an die Region
- Auf Links zugreifen, wenn Sie eine Serviceinstanz erstellen, während Sie einem Projekt einen Service zuordnen
- Probleme bei der Bereitstellung
- Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden
- Datenmodul wurde in IBM Federated Learning nicht gefunden
- Vorschau maskierter Datenassets ist im Bereitstellungsbereich blockiert
- Stapelbereitstellungsjobs, die große Inline-Nutzdaten verwenden, können im Status
starting
oderrunning
blockiert werden
Liste der Einschränkungen für maschinelles Lernen
Liste der Probleme für Watson OpenScale
Liste der Probleme für SPSS Modeler
Liste der Einschränkungen von SPSS Modeler
Liste der Verbindungsprobleme
Probleme mit Cloud Object Storage
- Liste der Probleme beim maschinellen Lernen
- Fehler bei Assets mit watsonx.ai Runtime in Projekten, die Cloud Object Storage mit aktiviertem Key Protect angeben.
- Auto AI
- Federated Learning
- Pipelines
- Liste der Probleme für SPSS Modeler
- Modell kann unter Angabe von Cloud Object Storage mit aktiviertem Key Protect nicht in Projekt gespeichert werden.
- Liste der Notebookprobleme
- Modell kann unter Angabe von Cloud Object Storage mit aktiviertem Key Protect nicht in Projekt gespeichert werden.
IBM Knowledge Catalog
Wenn Sie IBM Knowledge Catalog verwenden, können diese bekannten Probleme und Einschränkungen bei der Verwendung von Katalogen auftreten.
Der Asset-Typ "Verbindung" wird nach dem Entfernen nicht dauerhaft gelöscht
Der Asset-Typ Connection
wird nicht sofort nach dem Entfernen gelöscht, auch wenn die Asset-Entfernungskonfiguration in der Katalog-UI auf Assets beim Entfernen automatisch löschen eingestellt ist, und wird im Papierkorb angezeigt.
Die Suche nach Assets im Katalog unterstützt keine Sonderzeichen
Wenn die Suchbegriffe eines der folgenden Sonderzeichen enthalten, liefert der Suchfilter nicht die genauesten Ergebnisse.
Suchbegriffe:
. + - && || ! ( ) { } [ ] ^ " ~ * ? : \
Umgehung: Um möglichst genaue Ergebnisse zu erhalten, suchen Sie nur nach dem Schlüsselwort nach dem Sonderzeichen. Suchen Sie zum Beispiel statt AUTO_DV1.SF_CUSTOMER nach SF_CUSTOMER.
Maskierte Daten werden in Datenvisualisierungen nicht unterstützt.
Maskierte Daten werden in Datenvisualisierungen nicht unterstützt. Wenn Sie beim Generieren eines Diagramms auf der Registerkarte Visualisierungen eines Datenassets in einem Projekt versuchen, mit maskierten Daten zu arbeiten, wird die folgende Fehlernachricht empfangen: Bad Request: Failed to retrieve data from server. Masked data is not supported
.
Daten werden in einigen Projekttools nicht maskiert
Wenn Sie ein verbundenes Datenasset, das über maskierte Spalten aus einem Katalog verfügt, zu einem Projekt hinzufügen, bleiben die Spalten maskiert, wenn Sie die Daten anzeigen und wenn Sie die Daten im Data Refinery-Tool verfeinern. Bei Verwendung anderer Tools in den Projekten bleibt die Maskierung beim Zugriff auf die Daten über eine Verbindung jedoch nicht erhalten. Wenn Sie beispielsweise verbundene Daten in ein Notebook, einen DataStage -Ablauf, ein Dashboard oder andere Projekttools laden, greifen Sie über eine direkte Verbindung auf die Daten zu und umgehen die Maskierung.
Vordefinierte Governance-Artefakte sind möglicherweise nicht verfügbar
Wenn keine vordefinierten Klassifikationen oder Datenklassen angezeigt werden, reinitialisieren Sie Ihren Tenant mit dem folgenden API-Aufruf:
curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k
Mitarbeiter mit E-Mail-Adressen in Kleinschreibung hinzufügen
Geben Sie beim Hinzufügen von Mitarbeitern zum Katalog die E-Mail-Adressen vollständig in Kleinbuchstaben ein. E-Mail-Adressen in Groß-/Kleinschreibung werden nicht unterstützt.
Einschränkungen bei ObjectStorage-Verbindungen
Bei einer Cloud Object Storage-Verbindung (S3-API) oder einer Cloudant-Verbindung wirdder Ordner selbst als untergeordnetes Asset aufgeführt.
Mehrere gleichzeitige Verbindungsoperationen schlagen möglicherweise fehl
Es kann ein Fehler auftreten, wenn mehrere Benutzer gleichzeitig Verbindungsoperationen ausführen. Die Fehlernachricht kann unterschiedlich lauten.
Die Durchsetzung von Datenschutzregeln kann nach der Katalogerstellung nicht aktiviert werden
Sie können die Durchsetzung von Datenschutzregeln nicht aktivieren, nachdem Sie einen Katalog erstellt haben. Wenn Sie Datenschutzregeln auf Assets in einem Katalog anwenden möchten, müssen Sie die Durchsetzung während der Katalogerstellung aktivieren.
Assets werden blockiert, wenn Auswertung fehlschlägt
Die folgenden Einschränkungen gelten für Datenassets in einem Katalog mit Richtliniendurchsetzung: Dateibasierte Datenassets mit Header dürfen weder doppelten Spaltennamen, noch einen Punkt (.) oder einfache Anführungszeichen (') in einem Spaltennamen enthalten.
Wenn die Auswertung fehlschlägt, wird das Asset für alle Benutzer mit Ausnahme des Asseteigners blockiert. Allen anderen Benutzern wird eine Fehlernachricht angezeigt, die besagt, dass das Datenasset nicht angezeigt werden kann, weil die Auswertung fehlgeschlagen ist und das Asset blockiert ist.
Nur beim Datenklassenfilter in den Ergebnissen der Metadatenaufbereitung wird die Groß-/Kleinschreibung beachtet
Beim Filtern der Ergebnisse der Metadatenaufbereitung in der Registerkarte Spalte wird die Groß-/Kleinschreibung nur bei den Einträgen für Datenklasse beachtet. Die Einträge in den Filtern für Geschäftsbegriffe, Schemas und Assets werden in Kleinschreibung dargestellt, unabhängig von der tatsächlichen Schreibweise für den jeweiligen Wert.
Aufbereitungsdetails für ein Asset berücksichtigen möglicherweise nicht die Einstellungen, die beim letzten Aufbereitungsvorgang angewendet wurden
Nach dem Bearbeiten der Aufbereitungsoptionen für eine Metadatenaufbereitung, die mindestens einmal ausgeführt wurde, werden in den Assetdetails möglicherweise die aktualisierten Optionen angezeigt und nicht die Optionen, die bei der letzten Ausführung der Metadatenaufbereitung angewendet wurden.
Einzelne Seiten in einem Asset für Metadatenaufbereitung können nicht direkt aufgerufen werden
Wenn sich die Anzahl der Assets oder Spalten in einem Asset für Metadatenaufbereitung über mehrere Seiten erstreckt, können Sie nicht direkt zu einer bestimmten Seite wechseln. Die Dropdown-Liste für Seitennummern ist inaktiviert. Verwenden Sie stattdessen die Schaltflächen Nächste Seite und Vorherige Seite.
In einigen Fällen wird möglicherweise nicht das vollständige Protokoll eines Jobs zur Metadatenaufbereitung in der Benutzerschnittstelle angezeigt.
Wenn die Liste der Fehler in einer Ausführung der Metadatenaufbereitung außergewöhnlich lang ist, wird möglicherweise nur ein Teil des Jobprotokolls in der Benutzerschnittstelle angezeigt.
Problemumgehung: Laden Sie das gesamte Protokoll herunter und analysieren Sie es in einem externen Editor.
Möglicherweise fehlen Schemainformationen, wenn Sie Aufbereitungsergebnisse filtern
Wenn Sie Assets oder Spalten in den Aufbereitungsergebnissen nach Quelleninformationen filtern, sind möglicherweise keine Schemainformationen verfügbar.
Problemumgehung: Führen Sie den Aufbereitungsjob erneut aus und wenden Sie den Filter Quelle erneut an.
Probleme mit der Suche auf der Registerkarte 'Assets' eines Assets für die Metadatenaufbereitung
Wenn Sie auf der Registerkarte Assets eines Assets für die Metadatenaufbereitung nach einem Asset suchen, werden möglicherweise keine Ergebnisse zurückgegeben. Beachten Sie die folgenden Einschränkungen:
- Bei der Suche muss die Groß-/Kleinschreibung beachtet werden.
- Das Ergebnis enthält nur Datensätze, die dem exakten Suchausdruck entsprechen oder mit dem Ausdruck beginnen.
Ausgabe der Metadatenanreicherung in eine frühere Version von Apache Hive als 3.0.0 schreiben
Wenn Sie eine Datenqualitätsausgabe, die durch die Metadatenaufbereitung generiert wurde, in eine Apache Hive -Datenbank mit einer früheren Softwareversion als 3.0.0schreiben möchten, legen Sie die folgenden Konfigurationsparameter in Ihrem Apache Hive -Server fest:
set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true; # (not required for version 2)
set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true; # might not be available depending on the version
set hive.compactor.worker.threads=1;
Weitere Informationen finden Sie unter Hive -Transaktionen.
Filter für Geschäftsbegriffe in Aufbereitungsergebnissen spiegeln Zuordnungsänderungen möglicherweise nicht sofort wider
Wenn Sie Geschäftsbegriffe manuell zuweisen oder die Zuordnung aufheben, spiegelt der Filter für Geschäftsbegriffe diese Änderungen möglicherweise nicht sofort wider.
Umgehung: Aktualisieren Sie die Seite, indem Sie auf das Aktualisierungssymbol " klicken.
Bei Assets aus SAP OData-Quellen zeigen die Ergebnisse der Metadatenanreicherung nicht den Tabellentyp an
Im Allgemeinen zeigen die Ergebnisse der Metadatenanreicherung für jeden angereicherten Datenbestand an, ob es sich bei dem Bestand um eine Tabelle oder eine Ansicht handelt. Diese Informationen können für Datenbestände aus SAP OData-Datenquellen nicht abgerufen werden und werden daher in den Anreicherungsergebnissen nicht angezeigt.
Probleme mit dem Microsoft Excel-Add-In
Die folgenden Probleme sind für das Review Metadata Add-In für Microsoft Excel bekannt:
Wenn Sie die Dropdown-Liste öffnen, um einen Geschäftsbegriff oder eine Datenklasse zuzuordnen, wird als erster Eintrag der Eintrag Unverwechselbare Bezeichnung angezeigt. Wenn Sie diesen Eintrag auswählen, wird er in der Spalte angezeigt, hat aber keine Auswirkungen.
Das Aktualisieren oder Überschreiben vorhandener Daten in einer Kalkulationstabelle wird derzeit nicht unterstützt. Beim Abrufen von Daten müssen Sie eine leere Vorlagendatei verwenden.
Wenn ein anderer Benutzer an den Ergebnissen der Metadatenanreicherung arbeitet, während Sie die Kalkulationstabelle bearbeiten, können die Änderungen des anderen Benutzers verloren gehen, wenn Sie die von Ihnen vorgenommenen Änderungen in die Kalkulationstabelle hochladen.
Nur die zugeordneten Datenklassen und Geschäftsbegriffe werden aus den Spalten Zugeordnete/vorgeschlagene Datenklassen und Zugeordnete/vorgeschlagene Geschäftsbegriffe in die entsprechenden Eintragsspalten kopiert. Wenn mehrere Geschäftsbegriffe zugeordnet sind, wird jeder in eine eigene Spalte kopiert.
Maskierungsablauf
Wenn Sie den Maskierungsablauf verwenden, können diese bekannten Probleme und Einschränkungen auftreten, wenn Sie Daten privatisieren.
Maskierungsflussjobs können fehlschlagen
Während eines Maskierungsflussjobs versucht Spark möglicherweise, alle Daten einer Datenquelle in den Speicher zu einzulesen. Dabei können Fehler auftreten, wenn nicht genügend Speicher für die erfolgreiche Ausführung des Jobs verfügbar ist. Es passen maximal ca. 12 GB an Daten in den größten bereitgestellten Spark-Verarbeitungsknoten.
watsonx.ai Studio
Bei der Einführung und Verwendung von Notebooks können Sie auf einige dieser Probleme stoßen:
Beim Duplizieren eines Notebooks in der Benutzerschnittstelle für neue Projekte wird kein eindeutiger Name erstellt
Wenn Sie ein Notebook in der Benutzerschnittstelle für neue Projekte duplizieren, wird das doppelte Notebook nicht mit einem eindeutigen Namen erstellt.
In älteren Konten können keine Assets erstellt werden
Wenn Sie mit einer Instanz von watsonx.ai Studio arbeiten, die vor November 2017 aktiviert wurde, können Sie möglicherweise keine operativen Assets wie Notizbücher erstellen. Wenn die Schaltfläche " Erstellen" grau und deaktiviert bleibt, müssen Sie den Dienst watsonx.ai Studio über den Dienstkatalog zu Ihrem Konto hinzufügen.
500 interner Serverfehler beim Start von watsonx.ai Studio
In seltenen Fällen kann es vorkommen, dass Sie beim Starten von watsonx.ai Studio einen internen HTTP (500) erhalten. Dies kann durch ein abgelaufenes Cookie verursacht werden, das für den Browser gespeichert ist. Um zu überprüfen, ob der Fehler durch ein veraltetes Cookie verursacht wurde, versuchen Sie, watsonx.ai Studio in einer privaten Browsersitzung (inkognito) oder mit einem anderen Browser zu starten. Wenn der Start in einem neuen Browser erfolgreich ist, wurde der Fehler durch ein abgelaufenes Cookie verursacht. Es stehen eine Reihe von Lösungen zur Verfügung:
- Beenden Sie die Browseranwendung vollständig, um das Cookie zurückzusetzen. Sie müssen dabei die Anwendung schließen und erneut starten, nicht nur einfach das Browserfenster schließen. Starten Sie die Browseranwendung neu und starten Sie watsonx.ai Studio, um das Sitzungscookie zurückzusetzen.
- Löschen Sie die IBM aus den Browsing-Daten und starten Sie watsonx.ai Studio. Sehen Sie sich zum Löschen von Cookies die Browsing-Daten oder Sicherheitsoptionen im Browser an. Beachten Sie, dass das Löschen aller IBM Cookies möglicherweise Auswirkungen auf andere IBM Anwendungen hat.
Wenn der 500-Fehler nach Durchführung einer dieser Lösungen weiterhin besteht, überprüfen Sie die Statusseite für IBM Cloud, die watsonx.ai Studio betreffen. Darüber hinaus können Sie einen Supportfall im IBM Cloud Support-Portal öffnen.
Fehler bei der Anmeldung
Beim Versuch, sich bei watsonx.ai Studio anzumelden, erhalten Sie möglicherweise diese Fehlermeldung: "Access Manager WebSEAL konnte Ihre Anfrage aufgrund eines unerwarteten Fehlers nicht abschließen." Versuchen Sie erneut sich anzumelden. In der Regel ist der zweite Anmeldeversucherfolgreich.
Fehler beim Exportieren eines Notebooks in HTML im Editor Jupyter Notebook
Wenn Sie mit einem Jupyter Notebook arbeiten, das mit einem anderen Tool als watsonx.ai Studio erstellt wurde, können Sie das Notizbuch möglicherweise nicht in HTML exportieren. Dieses Problem tritt auf, wenn die Zellenausgabe verfügbar gemacht wird.
Problemumgehung
Wechseln Sie in der Benutzerschnittstelle von Jupyter Notebook zu Bearbeiten und klicken Sie auf Notebook-Metadaten bearbeiten.
Entfernen Sie die folgenden Metadaten:
"widgets": { "state": {}, "version": "1.1.2" }
Klicken Sie auf Bearbeiten.
Speichern Sie das Notebook.
ManuelleInstallation wird bei einigen TensorFlow-Bibliotheken nicht unterstützt
Einige TensorFlow-Bibliotheken sind vorinstalliert, aber wenn Sie versuchen,zusätzliche TensorFlow-Bibliotheken selbst zu installieren, tritt ein Fehler auf.
Das Herstellen einer Verbindung zum Notebook-Kernel dauert nach Ausführung einerCodezelle länger als erwartet
Wenn Sie versuchen, die Verbindung zum Kernel wiederherzustellen und sofort eine Codezelle ausführen (bzw. wenn die Kernelverbindung während der Codeausführung wiederhergestellt wurde), stellt das Notebook die Verbindung zum Kernel nicht wieder her und für die Codezelle wird keine Ausgabe angezeigt. Sie müssen die Verbindung zum Kernel manuell wiederherstellen, indem Sie auf Kernel > Verbindung wiederherstellen klicken. Wenn der Kernel bereit ist, könnenSie versuchen, die Codezelle erneut auszuführen.
DieVerwendung des vordefinierten sqlContext-Objekts in mehreren Notebooks verursacht einenFehler
Möglicherweise tritt ein Apache Spark-Fehler auf, wenn Sie das vordefiniertesqlContext-Objekt in mehreren Notebooks verwenden. Erstellen Sie für jedes Notebookein neues sqlContext-Objekt. Weitere Informationen finden Sie in dieser Erläuterung zu Stack Overflow.
Nachricht wegen fehlgeschlagener Verbindung
Wenn Ihr Kernel gestoppt wird, erfolgt keine automatische Speicherung Ihres Notebooksmehr. Klicken Sie zum Speichern des Notebooks manuell auf Datei > Speichern. Daraufhin müsste im Bereich für Kernelinformationen vor der Spark-Version die Nachricht Notebook gespeichert angezeigt werden. Wenn eine Nachricht darauf hinweist, dass der Kernel fehlgeschlagen ist, klicken Sie auf Kernel > Verbindung wiederherstellen, um Ihr Notebook wieder mit dem Kernel zu verbinden. Wenn Ihre Versuche zum erneuten Starten des Kernels erfolglos bleiben und das Notebook nicht gespeichert werden kann, laden Sie es herunter, um die Änderungen zu speichern. Klicken Sie dazu auf Datei > Herunterladen als > Notebook (.ipynb). Anschließend müssen Sie auf Basis Ihrer heruntergeladenenNotebookdatei ein neues Notebook erstellen.
Hyperlinks zu Notebook-Abschnitten sind im Voranzeigemodus nicht funktionsfähig
Wenn Ihr Notebook Abschnitte enthält, die Sie beispielsweise über einen Einführungsabschnitt am oberen Rand des Notebooks verlinken, werden die Links zu diesen Abschnitten nicht funktionieren, wenn das Notizbuch im Modus 'Nur anzeigen' in Firefox geöffnet wurde. Wenn Sie das Notizbuch jedoch im Bearbeitungsmodus öffnen, werden diese Links funktionieren.
Verbindung zum Notebook-Kernel kann nicht hergestellt werden
Wenn Sie versuchen, ein Notebook auszuführen, und nach den Nachrichten Connecting to Kernel
und Connection failed. Reconnecting
eine Fehlernachricht für fehlgeschlagene Verbindung ausgegeben wird, kann dies bedeuten, dass die Ausführung des Notebooks durch Ihre Firewall blockiert wird.
Wenn watsonx.ai Studio hinter einer Firewall installiert ist, müssen Sie die WebSocket ' wss://dataplatform.cloud.ibm.com
zu den Firewall-Einstellungen hinzufügen. Die Aktivierung dieser WebSocket-Verbindung ist erforderlich, wenn Sie Notebooks und RStudio verwenden.
Dateien, die über die watsonx.ai Studio UI hochgeladen werden, werden nicht validiert oder auf potenziell schädliche Inhalte gescannt
Dateien, die Sie über die watsonx.ai Studio-Benutzeroberfläche hochladen, werden nicht validiert oder auf potenziell schädliche Inhalte gescannt. Es wird dringend empfohlen, alle Dateien vor dem Hochladen mit einer Sicherheitssoftware, z. B. einem Antivirenprogramm, zu überprüfen, um die Sicherheit Ihrer Inhalte zu gewährleisten.
Data Refinery bekannte Probleme
Verlust von Zieltabellen und Auftragsfehler bei Verwendung der Aktualisierungsoption in einem Data Refinery
Die Verwendung der Option Update für die Zieleigenschaft Schreibmodus für relationale Datenquellen (z. B. Db2) ersetzt die ursprüngliche Zieltabelle und der Data Refinery kann fehlschlagen.
Umgehung: Verwenden Sie die Option Zusammenführen als **Schreibmodus ** und Anhängen als Tabellenaktion.
Data Refinery Einschränkungen
Datenspaltenüberschriften dürfen keine Sonderzeichen enthalten
Daten mit Spaltenüberschriften, die Sonderzeichen enthalten, können dazu führen, dass Data Refinery-Aufträge fehlschlagen und den Fehler Supplied values don't match positional vars to interpolate
anzeigen.
Abhilfe: Entfernen Sie die Sonderzeichen aus den Spaltenüberschriften.
Data Refinery unterstützt den Satellite Connector nicht
Sie können keinen Satellite Connector verwenden, um eine Verbindung zu einer Datenbank mit Data Refinery herzustellen
Fehler beim Öffnen eines Data Refinery mit einer Verbindung mit persönlichen Anmeldeinformationen
Wenn Sie einen Data Refinery öffnen, der ein Daten-Asset verwendet, das auf einer Verbindung mit persönlichen Anmeldeinformationen basiert, wird möglicherweise ein Fehler angezeigt.
Arbeitsumgebung: Um einen Data Refinery zu öffnen, der Assets enthält, die Verbindungen mit persönlichen Anmeldeinformationen verwenden, müssen Sie die Verbindung entsperren. Sie können die Verbindung freischalten, indem Sie die Verbindung bearbeiten und Ihre persönlichen Zugangsdaten eingeben oder indem Sie eine Vorschau des Assets im Projekt anzeigen, in der Sie aufgefordert werden, Ihre persönlichen Zugangsdaten einzugeben. Wenn Sie die Verbindung freigeschaltet haben, können Sie den Data Refinery öffnen.
Probleme mit Visualisierungen
Einige dieser Probleme können bei der Arbeit mit der Registerkarte Visualisierung in einem Daten-Asset in einem Projekt auftreten.
Die Profilinformationen auf Spaltenebene für ein verbundenes Daten-Asset mit einer Spalte vom Typ DATE zeigen keine Zeilen an
In den Profilinformationen auf Spaltenebene für ein verbundenes Daten-Asset mit einer Spalte vom Typ DATE werden keine Zeilen angezeigt, wenn Sie auf Zeilen anzeigen in den Registerkarten Datenklassen, Format oder Typen klicken.
watsonx.ai Laufzeitprobleme
Einige dieser Probleme können bei der Arbeit mit watsonx.ai Runtime auftreten.
Anforderungen an die Region
Sie können eine watsonx.ai Runtime Service-Instanz nur dann mit Ihrem Projekt verknüpfen, wenn sich die watsonx.ai Runtime Service-Instanz und die watsonx.ai Studio-Instanz in der gleichen Region befinden.
Auf Links zugreifen, wenn Sie beim Zuordnen eines Service zu einem Projekt eine Serviceinstanz erstellen
Während Sie einen watsonx.ai Runtime Service mit einem Projekt verknüpfen, haben Sie die Möglichkeit, eine neue Service-Instanz zu erstellen. Wenn Sie einen neuen Service erstellen möchten, funktionieren die Links auf der Serviceseite möglicherweise nicht. Um auf Servicebedingungen, APIs und Dokumentation zuzugreifen, klicken Sie mit der rechten Maustaste auf die Links, um sie in neuen Fenstern zu öffnen.
Federated Learning-Assets können in der Benutzerschnittstelle für neue Projekte nicht in allen Assets, in Suchergebnissen oder in Filterergebnissen durchsucht werden
Sie können Federated Learning-Assets nicht über die Ansicht Alle Assets , die Suchergebnisse oder die Filterergebnisse Ihres Projekts durchsuchen.
Problemumgehung Klicken Sie auf das Federated Learning-Asset, um das Tool zu öffnen.
Probleme bei der Bereitstellung
- Eine Bereitstellung, die eine bestimmte Zeit lang inaktiv ist (24 Stunden für denkostenlosen Plan oder 120 Stunden für einen bezahlten Plan), wird automatisch in denHibernationsmodus versetzt. Bei Übergabe einer neuen Scoring-Anforderung wird dieBereitstellung reaktiviert und die Scoring-Anforderung verarbeitet. Je nachModellframework kann es nach der Aktivierung zu einer Verzögerung von bis zu 60Sekunden für die erste Scoring-Anforderung kommen.
- Bei einigen Frameworks (z. B. SPSS Modeler) kann die erste Scoring-Anforderung fürein bereitgestelltes Modell nach der Hibernation zu einem Fehler 504 führen. Wenn dieser Fehler auftritt, übermitteln Sie die Anfrage erneut; nachfolgende Anfragen sind erfolgreich.
Vorschau maskierter Datenassets ist im Bereitstellungsbereich blockiert * *
Eine Asset-Vorschau kann mit dieser Meldung fehlschlagen: This asset contains masked data and is not supported for preview in the Deployment Space
Bereitstellungsbereiche unterstützen derzeit keine Maskierung von Daten. Daher wurde die Vorschau für maskierte Assets blockiert, um Datenlecks zu vermeiden.
Stapelbereitstellungsjobs, die große Inline-Nutzdaten verwenden, können im Status starting
oder running
blockiert werden
Wenn Sie große asynchrone Nutzdaten für Ihre Inline-Batchbereitstellung bereitstellen, kann dies dazu führen, dass der Laufzeitmanagerprozess den Heapspeicher nicht mehr benötigt.
Im folgenden Beispiel wurden 92 MB Nutzdaten inline an die Batchbereitstellung übergeben, was dazu führte, dass der Heapspeicher über zu wenig Speicher verfügt.
Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
...
Dies kann dazu führen, dass gleichzeitige Aufträge im Zustand ' starting
oder ' running
stecken bleiben. Der Status " starting
kann nur gelöscht werden, wenn die Einrichtung gelöscht und eine neue Einrichtung erstellt wird. Der Status running
kann gelöscht werden, ohne dass die Implementierung gelöscht wird.
Verwenden Sie als Problemumgehung Datenverweise anstelle von Inline für umfangreiche Nutzdaten, die für Stapelbereitstellungen bereitgestellt werden.
watsonx.ai Laufzeitbeschränkungen
Bekannte Einschränkungen bei AutoAI
Derzeit werden bei AutoAI-Experimenten keine Doppelbytezeichensätzeunterstützt. AutoAI unterstützt nur CSV-Dateien mit ASCII-Zeichen. Benutzer müssen alle Nicht-ASCII-Zeichen im Dateinamen oder Inhalt konvertieren und Eingabedaten CSV-Format bereitstellen, wie in diesem CSV-Standard definiert.
Verwenden Sie die REST-API anstelle des Python-Clients, um programmgestützt miteinem AutoAI-Modell zu interagieren. Die für die Unterstützung von AutoAI erforderlichen APIs für den Python sind derzeit nicht allgemein verfügbar.
Datenmodul wird in IBM Federated Learning nicht gefunden
Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
Das Problem wird möglicherweise durch die Verwendung eines veralteten Datenhandlers verursacht. Überprüfen und aktualisieren Sie Ihren DataHandler, damit er der neuesten Spezifikation entspricht. Hier ist der Link zum neuesten MNIST Data Handler oder stellen Sie sicher, dass Ihre Beispielversionen auf dem neuesten Stand sind.
Das Festlegen von Umgebungsvariablen in einer Conda-YAML-Datei funktioniert nicht für Implementierungen
Das Festlegen von Umgebungsvariablen in einer Conda-YAML-Datei funktioniert nicht für Implementierungen. Das bedeutet, dass Sie bestehende Umgebungsvariablen, z.B. ' LD_LIBRARY_PATH
, nicht überschreiben können, wenn Sie Assets in watsonx.ai Runtime bereitstellen.
Als Problemumgehung sollten Sie bei Verwendung einer Python -Funktion die Festlegung von Standardparametern in Betracht ziehen. Details finden Sie unter Python -Funktionen bereitstellen.
Dateien, die über die Benutzeroberfläche des Bereitstellungsraums hochgeladen werden, werden nicht validiert oder auf potenziell bösartige Inhalte gescannt
Dateien, die Sie über die Benutzeroberfläche des Bereitstellungsraums hochladen, werden nicht validiert oder auf potenziell schädliche Inhalte gescannt. Es wird empfohlen, alle Dateien vor dem Hochladen mit einer Sicherheitssoftware, z. B. einem Virenschutzprogramm, zu überprüfen, um die Sicherheit Ihrer Inhalte zu gewährleisten.
Probleme mit Watson OpenScale
In Watson OpenScalekönnen die folgenden Probleme auftreten:
Driftkonfiguration wird gestartet, aber nicht beendet
Die Driftkonfiguration wird gestartet, aber nicht beendet und der Wartekreisel wird angezeigt. Wenn der Wartekreisel länger als 10 Minuten angezeigt wird, ist es möglich, dass das System in einen inkonsistenten Status geraten ist. Für dieses Verhalten gibt es eine Problemumgehung: Bearbeiten Sie die Driftkonfiguration. Speichern Sie den Job anschließend. Möglicherweise verlässt das System diesen Status und schließt die Konfiguration ab. Wenn eine erneute Driftkonfiguration die Situation nicht behebt, wenden Sie sich an den IBM Support.
SPSS Modeler-Probleme
Bei der Arbeit in SPSS Modeler können Sie auf einige der folgenden Probleme stoßen.
Einschränkungen der SPSS Modeler -Laufzeit
watsonx.ai Studio enthält keine SPSS in Peru, Ecuador, Kolumbien und Venezuela.
Zeitmarkendaten in Mikrosekunden gemessen
Wenn Sie Zeitmarkendaten haben, die in Mikrosekunden gemessen werden, können Sie die präziseren Daten in Ihrem Datenfluss verwenden. Sie können Daten, die in Mikrosekunden gemessen werden, jedoch nur von Konnektoren importieren, die SQL-Pushback unterstützen. Weitere Informationen zu den Connectors, die SQL-Pushback unterstützen, finden Sie unter Unterstützte Datenquellen für SPSS Modeler.
SPSS Modeler Einschränkungen
Von Text Analytics unterstützte Sprachen
Die Textanalysefunktion in SPSS Modeler unterstützt die folgenden Sprachen:
- Niederländisch
- Englisch
- Französisch
- Deutsch
- Italienisch
- Japanisch
- Portugiesisch
- Spanisch
SPSS Modeler unterstützt Satellite Connector nicht
Sie können keinen Satellite Connector verwenden, um eine Verbindung zu einer Datenbank mit SPSS Modeler herzustellen.
Knoten und Unicode-Zeichen zusammenführen
Der Knoten "Zusammenführen" behandelt die folgenden ähnlichen japanischen Zeichen als das gleiche Zeichen.
'
Verbindungsprobleme
Dieses Problem kann beim Arbeiten mit Verbindungen auftreten.
Apache Impala Verbindung funktioniert nicht mit LDAP-Authentifizierung
Wenn Sie eine Verbindung zu einer Apache Impala-Datenquelle erstellen und der Apache Impala-Server für die LDAP-Authentifizierung eingerichtet ist, funktioniert die Authentifizierungsmethode mit Benutzername und Passwort in Cloud Pak for Data as a Service nicht.
Problemumgehung: Inaktivieren Sie die Option LDAP-Authentifizierung aktivieren auf dem Impala -Server. Siehe Konfigurieren der LDAP-Authentifizierung in der Cloudera.
Bekannte Probleme bei Orchestrierungspipelines
Die Probleme betreffen Orchestrierungspipelines.
Der Asset-Browser spiegelt nicht immer die Gesamtzahl der Asset-Typen wider
When selecting an asset from the asset browser, such as choosing a source for a Copy node, you see that some of the assets list the total number of that asset type available, but notebooks do not.
Pipeline-Versionen können nicht gelöscht werden
Derzeit können Sie gespeicherte Versionen von Pipelines, die Sie nicht mehr benötigen, nicht löschen. Alle Versionen werden gelöscht, wenn die Pipeline gelöscht wird.
Das Löschen eines AutoAI-Experiments schlägt unter bestimmten Umständen fehl
Bei Verwendung eines AutoAI-Experiment löschen-Knotens zum Löschen eines AutoAI-Experiments, das über die Benutzerschnittstelle für Projekte erstellt wurde, wird das AutoAI-Asset nicht gelöscht. Der restliche Ablauf wird jedoch erfolgreich durchgeführt.
Cache scheint aktiviert zu sein, ist aber nicht aktiviert
Wenn der Kopiermodus des Pipelines-Knotens Assets kopieren auf Overwrite
gesetzt ist, wird der Cache als aktiviert angezeigt, bleibt aber inaktiviert.
Pipelines können einige SQL-Anweisungen nicht speichern
Pipelines können nicht speichern, wenn SQL-Anweisungen mit runden Klammern in einem Script oder einer Benutzervariablen übergeben werden.
Um dieses Problem zu beheben, ersetzen Sie alle runden Klammern durch den entsprechenden ASCII-Code ((
durch #40
und )
durch #41
) und ersetzen Sie den Code, wenn Sie ihn als Benutzervariable festlegen.
Die Anweisung " select CAST(col1 as VARCHAR(30)) from dbo.table
in einem Run Bash-Skriptknoten verursacht beispielsweise einen Fehler. Verwenden Sie stattdessen die Anweisung select CAST#40col1 as VARCHAR#4030#41#41 from dbo.table
und ersetzen Sie die Instanzen, wenn Sie sie als Benutzervariable festlegen.
Orchestrierungspipelines werden abgebrochen, wenn das Limit für Anmerkungen erreicht ist
Pipeline-Ausdrücke erfordern Anmerkungen, die aufgrund der Begrenzung für Anmerkungen in Kubernetes. Wenn Sie dieses Limit erreichen, wird Ihre Pipeline abgebrochen, ohne Protokolle anzuzeigen.
Einschränkungen für Orchestrierungspipelines
Diese Einschränkungen gelten für Orchestrierungspipelines.
- Grenzwerte für einzelne Pipeline
- Grenzwerte für Eingabe-und Ausgabegröße
- Batcheingabe auf Datenassets beschränkt
- Bash-Skript wirft Fehler bei curl-Befehlen aus
Grenzwerte für einzelne Pipelines
Diese Einschränkungen gelten für eine einzelne Rohrleitung, unabhängig von der Konfiguration.
- Jede einzelne Pipeline darf nicht mehr als 120 Standardknoten enthalten
- Jede Pipeline mit einer Schleife kann nicht mehr als 600 Knoten in allen Iterationen enthalten (z. B. 60 Iterationen-jeweils 10 Knoten).
Größenbegrenzungen für Eingabe und Ausgabe
Eingabe-und Ausgabewerte, die Pipelineparameter, Benutzervariablen und generische Knoteneingaben und -ausgaben enthalten, dürfen 10 KB an Daten nicht überschreiten.
Batcheingabe auf Datenassets beschränkt
Derzeit ist die Eingabe für Batchbereitstellungsjobs auf Datenassets beschränkt. Dies bedeutet, dass bestimmte Typen von Implementierungen, die JSON-Eingabe oder mehrere Dateien als Eingabe erfordern, nicht unterstützt werden. So werden z. B. SPSS-Modelle und Decision Optimization-Lösungen, für die mehrere Dateien als Eingabe erforderlich sind, nicht unterstützt.
Bash-Skripte werfen Fehler mit Curl-Befehlen
Die Bash-Skripte in Ihren Pipelines können Fehler verursachen, wenn Sie darin Curl-Befehle implementieren. Um dieses Problem zu vermeiden, legen Sie Ihre Curl-Befehle als Parameter fest. Um eine Pipeline zu speichern, die beim Speichern einen Fehler verursacht, versuchen Sie, die isx-Datei zu exportieren und in ein neues Projekt zu importieren.
Probleme mit Cloud Object Storage
Diese Probleme gelten für die Arbeit mit Cloud Object Storage.
Probleme mit Cloud Object Storage bei aktiviertem Key Protect
Key Protect mit Cloud Object Storage wird für die Arbeit mit watsonx.ai Runtime Assets nicht unterstützt. Wenn Sie Key Protect verwenden, können diese Probleme auftreten, wenn Sie mit Assets in watsonx.ai Studio arbeiten.
- Das Trainieren oder Speichern dieser watsonx.ai Runtime-Assets kann fehlschlagen:
- Auto AI
- Federated Learning
- Pipelines
- Möglicherweise können Sie ein SPSS -Modell oder ein Notebookmodell nicht in einem Projekt speichern.
Probleme mit watsonx.governance
Einschränkung der Integration mit OpenPages
Wenn AI Factsheets mit OpenPages, integriert ist, werden die in den Feldgruppen MRG-UserFacts-Model
oder MRG-UserFact-Model
und MRG-UserFacts-ModelEntry
oder MRG-UserFact-ModelUseCase
erstellten Felder mit modelfacts_user_op
und model_entry_user_op
Asset-Typ-Definitionen synchronisiert. Wenn die Felder jedoch aus der Anwendung OpenPages erstellt werden, vermeiden Sie es, die Felder als erforderlich anzugeben, und geben Sie keinen Wertebereich an. Wenn Sie sie als erforderlich markieren oder einen Wertebereich zuweisen, schlägt die Synchronisierung fehl.
Verzögerung beim Anzeigen von Bereitstellungsdaten für Eingabeaufforderungsvorlagen in einem Factsheet
Wenn eine Implementierung für eine Eingabeaufforderungsvorlage erstellt wird, werden die Fakten für die Implementierung nicht sofort zum Factsheet hinzugefügt. Sie müssen zuerst die Bereitstellung auswerten oder die Seite für die Lebenszyklusüberwachung anzeigen, um die Fakten zum Factsheet hinzuzufügen.
Redundante Anhangslinks im Factsheet
Ein Factsheet verfolgt alle Ereignisse für ein Asset in allen Phasen des Lebenszyklus. Anhänge werden in jeder Phase angezeigt, wodurch Redundanz im Factsheet entsteht.
Anhänge für Eingabeaufforderungsvorlagen werden beim Import oder Export nicht gespeichert
Wenn Ihr KI-Anwendungsfall Anhänge für eine Eingabeaufforderungsvorlage enthält, werden die Anhänge nicht beibehalten, wenn das Asset der Eingabeaufforderungsvorlage aus einem Projekt exportiert oder in ein Projekt oder einen Bereich importiert wird. Nach dem Importvorgang müssen Sie die Dateien wieder anhängen.