0 / 0
Zurück zur englischen Version der Dokumentation
Fehlerbehebung für Watson Machine Learning
Letzte Aktualisierung: 27. Sept. 2024
Fehlerbehebung für Watson Machine Learning

Im Folgenden finden Sie Antworten auf häufig gestellte Fragen zur Fehlerbehebung bei der Verwendung von IBM Watson Machine Learning.

Hilfe und Unterstützung für Watson Machine Learning anfordern

Wenn bei der Verwendung von Watson Machine LearningProbleme oder Fragen auftreten, können Sie Hilfe anfordern, indem Sie in einem Forum nach Informationen suchen oder Fragen stellen. Sie können auch ein Support-Ticket öffnen.

Wenn Sie die Foren verwenden, um eine Frage zu stellen, kennzeichnen Sie Ihre Frage so, dass sie von den Watson Machine Learning -Entwicklungsteams gesehen wird.

Wenn Sie technische Fragen zu Watson Machine Learninghaben, posten Sie Ihre Frage auf Stack Overflow Symbol für externen Link und kennzeichnen Sie sie mit ibm-bluemix und machine-learning.

Bei Fragen zum Service und zu den einführenden Anweisungen verwenden Sie das Forum IBM developerWorks dW Answers Symbol für externen Link . Sie müssen die Tags machine-learning und bluemix einschließen.

Inhalt

Befolgen Sie diese Tipps, um häufige Probleme zu lösen, die bei der Arbeit mit Watson Machine Learning auftreten können.

Training eines AutoAI-Experiments schlägt mit Service-ID-Anmeldeinformationen fehl

Wenn Sie ein AutoAI-Experiment mit dem API-Schlüssel für die serviceID, trainieren, kann das Training mit diesem Fehler fehlschlagen:

User specified in query parameters does not match user from token.

Eine Möglichkeit, dieses Problem zu lösen, besteht darin, das Experiment mit Ihren Benutzeranmeldedaten durchzuführen. Wenn Sie das Experiment mit Anmeldeinformationen für den Dienst durchführen möchten, führen Sie die folgenden Schritte aus, um die Rollen und Richtlinien für die Dienst-ID zu aktualisieren.

  1. Öffnen Sie Ihre serviceID auf IBM Cloud.

    Suche nach der Seite serviceID policy

  2. Erstellen Sie eine neue serviceID oder aktualisieren Sie die vorhandene ID mit der folgenden Zugriffsrichtlinie:

    • Alle IAM Account Management Services mit den Rollen API Key Reviewer, User API Key Creator, Viewer, Operator und Editor. Am besten ist es, wenn sie einen neuen apikey für diese ServiceId erstellen. Aktualisierung der Richtlinien und Rollen für eine serviceID
  3. Die aktualisierte Richtlinie wird wie folgt aussehen: Aktualisierte serviceID Richtlinie

  4. Führen Sie das Training erneut mit den Anmeldeinformationen für die aktualisierte serviceID durch.

Das Bereitstellen eines benutzerdefinierten Basismodells aus einem Bereitstellungsbereich schlägt fehl

Wenn Sie eine Bereitstellung für ein benutzerdefiniertes Basismodell aus Ihrem Bereitstellungsbereich erstellen, kann Ihre Bereitstellung aus vielen Gründen fehlschlagen. Befolgen Sie diese Tipps, um häufige Probleme zu beheben, die bei der Bereitstellung Ihrer benutzerdefinierten Foundation-Modelle aus einem Bereitstellungsbereich auftreten können.

Fall 1: Parameterwert liegt außerhalb des Bereichs

Wenn Sie eine Bereitstellung für ein benutzerdefiniertes Basismodell aus Ihrem Bereitstellungsbereich erstellen, müssen Sie sicherstellen, dass die Werte Ihrer Basismodellparameter innerhalb des angegebenen Bereichs liegen. Weitere Informationen finden Sie unter Eigenschaften und Parameter für benutzerdefinierte Fundamentmodelle. Wenn Sie einen Wert eingeben, der außerhalb des angegebenen Bereichs liegt, kann ein Fehler auftreten.

Zum Beispiel muss der Wert des Parameters max_new_tokens kleiner sein als max_sequence_length. Wenn Sie beim Aktualisieren der Basismodellparameterwerte einen Wert für max_new_tokens eingeben, der größer oder gleich dem Wert von max_sequence_length (2048) ist, kann ein Fehler auftreten.

Das folgende Bild zeigt ein Beispiel für eine Fehlermeldung: Value must be an integer between 20 and 1000000000000000 and be greater than 'Max New Tokens'.

Beispiel für eine Fehlernachricht

Wenn die Standardwerte für Ihre Modellparameter zu einem Fehler führen, wenden Sie sich an Ihren Administrator, um die Registrierung des Modells in der watsonxaiifm CR zu ändern.

Fall 2: Nicht unterstützter Datentyp

Sie müssen darauf achten, dass Sie einen Datentyp auswählen, der von Ihrem benutzerdefinierten Basismodell unterstützt wird. Wenn Sie beim Aktualisieren der Basismodellparameterwerte den Datentyp für Ihr bereitgestelltes Modell mit einem nicht unterstützten Datentyp aktualisieren, kann die Bereitstellung fehlschlagen.

Das Modell LLaMA-Pro-8B-Instruct-GPTQ unterstützt zum Beispiel nur den Datentyp float16. Wenn Sie das Modell LLaMA-Pro-8B-Instruct-GPTQ mit float16 Enum einsetzen und dann den Parameter Enum von float16 auf bfloat16 aktualisieren, schlägt der Einsatz fehl.

Wenn der Datentyp, den Sie für Ihr benutzerdefiniertes Basismodell ausgewählt haben, zu einem Fehler führt, können Sie den Datentyp für das benutzerdefinierte Basismodell während der Erstellung der Bereitstellung überschreiben oder sich an Ihren Administrator wenden, um die Registrierung des Modells in der CR watsonxaiifm zu ändern.

Fall 3: Parameterwert ist zu groß

Wenn Sie einen sehr großen Wert für die Parameter max_sequence_length und max_new_token eingeben, kann ein Fehler auftreten. Wenn Sie beispielsweise den Wert von max_sequence_length als 1000000000000000 festlegen, wird folgende Fehlermeldung angezeigt:

Die Bereitstellung des benutzerdefinierten Foundation-Modells ist fehlgeschlagen. Der Vorgang ist fehlgeschlagen aufgrund von 'max_batch_weight (19596417433) nicht groß genug für (prefill) max_sequence_length (1000000000000000)'. Wiederholen Sie die Operation. Wenden Sie sich an den IBM Support, wenn das Problem bestehen bleibt.

Sie müssen darauf achten, dass Sie einen Wert für den Parameter eingeben, der kleiner ist als der in der Modellkonfigurationsdatei definierte Wert (config.json).

Fall 4: model.safetensors Datei wird mit nicht unterstützten Bibliotheken gespeichert

Wenn die model.safetensors-Datei für Ihr benutzerdefiniertes Basismodell ein nicht unterstütztes Datenformat im Metadaten-Header verwendet, kann Ihre Bereitstellung fehlschlagen.

Wenn Sie beispielsweise das benutzerdefinierte OccamRazor/mpt-7b-storywriter-4bit-128g-Foundation-Modell aus Hugging Face in Ihren Bereitstellungsbereich importieren und eine Online-Bereitstellung erstellen, kann Ihre Bereitstellung fehlschlagen. Das liegt daran, dass die model.safetensors-Datei für das OccamRazor/mpt-7b-storywriter-4bit-128g-Modell mit der save_pretrained gespeichert wird, die eine nicht unterstützte Bibliothek ist. Sie empfangen möglicherweise die folgende Fehlernachricht:

Der Vorgang ist fehlgeschlagen, weil das 'NoneType' Objekt kein Attribut 'get' hat.

Sie müssen sicherstellen, dass Ihr benutzerdefiniertes Fundamentmodell mit der unterstützten transformers-Bibliothek gespeichert wird.

Fall 5: Einsatz eines Llama 3.1 Modells schlägt fehl

Wenn die Bereitstellung des Modells Llama 3.1 fehlschlägt, versuchen Sie, den Inhalt der config.json-Datei Ihres Modells zu bearbeiten:

  1. Suchen Sie den Eintrag eos_token_id.
  2. Ändern Sie den Wert des Eintrags von einem Array in eine Ganzzahl.

Versuchen Sie dann, Ihr Modell neu zu verteilen.

Das Erstellen eines Auftrags für einen SPSS Modeler-Fluss in einem Bereitstellungsraum schlägt fehl

Während der Konfiguration eines Batch-Jobs für Ihren SPSS Modeler-Flow in einem Deployment-Space kann die automatische Zuordnung von Daten-Assets zu ihrer jeweiligen Verbindung fehlschlagen.

Das Bild zeigt, dass die automatische Zuordnung von Datenbeständen und Verbindungen nicht funktioniert

Gehen Sie folgendermaßen vor, um den Fehler bei der automatischen Zuordnung von Datenbeständen und Verbindungen zu beheben:

  1. Klicken Sie auf Erstellen und speichern, um Ihren Fortschritt zu speichern und das Konfigurationsdialogfeld Neuer Auftrag zu verlassen.

  2. Klicken Sie in Ihrem Bereitstellungsbereich auf die Registerkarte Jobs und wählen Sie Ihren SPSS Modeler Flow Job aus, um die Details Ihres Jobs zu überprüfen.

  3. Klicken Sie auf der Seite mit den Auftragsdetails auf das Symbol Bearbeiten Bild des Bearbeitungssymbols, um die Zuordnung Ihrer Datenbestände und Verbindungen manuell zu aktualisieren.

  4. Nachdem Sie die Zuordnung von Datenbeständen und Verbindungen aktualisiert haben, können Sie im Dialogfeld Neuer Auftrag mit der Konfiguration der Einstellungen für Ihren Auftrag fortfahren. Weitere Informationen finden Sie unter Erstellen von Bereitstellungsaufträgen für SPSS Modeler-Flows

    Das Bild zeigt, dass die automatische Zuordnung von Datenbeständen und Verbindungen erfolgreich ist

Inaktive Watson Machine Learning -Instanz

Symptome

Nachdem Sie versucht haben, eine Inferenzanforderung an ein Basismodell zu übergeben, indem Sie im Eingabeaufforderungslabor auf die Schaltfläche Generieren klicken, wird die folgende Fehlernachricht angezeigt:

'code': 'no_associated_service_instance_error',
'message': 'WML instance {instance_id} status is not active, current status: Inactive'

Mögliche Ursachen

Die Zuordnung zwischen Ihrem Projekt watsonx.ai und der zugehörigen Watson Machine Learning -Serviceinstanz ging verloren.

Mögliche Lösungen

Erstellen oder aktualisieren Sie die Zuordnung zwischen Ihrem watsonx.ai -Projekt und der zugehörigen Watson Machine Learning -Serviceinstanz. Führen Sie dazu die folgenden Schritte aus:

  1. Erweitern Sie im Hauptmenü Projekteund klicken Sie dann auf Alle Projekte anzeigen.
  2. Klicken Sie auf Ihr Projekt watsonx.ai .
  3. Klicken Sie auf der Registerkarte Verwalten auf Services & Integrationen.
  4. Wenn die entsprechende Watson Machine Learning -Serviceinstanz aufgelistet wird, heben Sie die Zuordnung auf, indem Sie die Instanz auswählen und anschließend auf Entfernenklicken. Bestätigen Sie das Entfernen.
  5. Klicken Sie auf Service zuordnen.
  6. Wählen Sie die entsprechende Watson Machine Learning -Serviceinstanz aus der Liste aus und klicken dann auf Zuordnen.

Das Berechtigungstoken ist nicht angegeben.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Das Berechtigungstoken wird im Header Authorization nicht bereitgestellt.

Fehlerbehebungsmaßnahme

Übergeben Sie das Berechtigungstoken im Header Authorization .

Ungültiges Berechtigungstoken.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Das angegebene Berechtigungstoken kann nicht decodiert oder syntaktisch analysiert werden.

Fehlerbehebungsmaßnahme

Übergeben Sie das richtige Berechtigungstoken im Header Authorization .

Das Berechtigungstoken und die Instanz-ID, die in der Anforderung verwendet wurden, sind nicht identisch.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Das verwendete Berechtigungstoken wird nicht für die Serviceinstanz generiert, für die es verwendet wurde.

Fehlerbehebungsmaßnahme

Übergeben Sie ein Berechtigungstoken im Header Authorization , das der verwendeten Serviceinstanz entspricht.

Das Berechtigungstoken ist abgelaufen.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Das Berechtigungstoken ist abgelaufen.

Fehlerbehebungsmaßnahme

Übergeben Sie ein nicht abgelaufenes Berechtigungstoken an den Header Authorization.

Der für die Authentifizierung erforderliche öffentliche Schlüssel ist nicht verfügbar.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem kann aufgrund interner Serviceprobleme auftreten.

Fehlerbehebungsmaßnahme

Wenden Sie sich an das Support-Team.

Operation, die nach {{timeout}} das zulässige Zeitlimit überschritten hat

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Das Zeitlimit wurde beim Ausführen der angeforderten Operation überschritten.

Fehlerbehebungsmaßnahme

Versuchen Sie erneut, die Operation aufzurufen.

Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{status}}

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem kann aufgrund interner Serviceprobleme auftreten.

Fehlerbehebungsmaßnahme

Versuchen Sie erneut, die Operation aufzurufen. Wenn dies erneut auftritt, wenden Sie sich an das Support-Team.

Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{response}}

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem kann aufgrund interner Serviceprobleme auftreten.

Fehlerbehebungsmaßnahme

Versuchen Sie erneut, die Operation aufzurufen. Wenn dies erneut auftritt, wenden Sie sich an das Support-Team.

Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{json}}

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem kann aufgrund interner Serviceprobleme auftreten.

Fehlerbehebungsmaßnahme

Versuchen Sie erneut, die Operation aufzurufen. Wenn dies erneut auftritt, wenden Sie sich an das Support-Team.

Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{message}}

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem kann aufgrund interner Serviceprobleme auftreten.

Fehlerbehebungsmaßnahme

Versuchen Sie erneut, die Operation aufzurufen. Wenn dies erneut auftritt, wenden Sie sich an das Support-Team.

Das angeforderte Objekt wurde nicht gefunden.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Die Anforderungsressource wurde nicht gefunden.

Fehlerbehebungsmaßnahme

Stellen Sie sicher, dass Sie auf die vorhandene Ressource verweisen.

Die zugrunde liegende Datenbank hat zu viele Anforderungen gemeldet.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Der Benutzer hat zu viele Anforderungen in einer bestimmten Zeit gesendet.

Fehlerbehebungsmaßnahme

Versuchen Sie erneut, die Operation aufzurufen.

Die Definition der Bewertung ist nicht in der artifactModelVersion oder der Bereitstellung definiert. Sie muss angegeben werden. + \n "mindestens an einer der Stellen.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Lernkonfiguration enthält nicht alle erforderlichen Informationen

Fehlerbehebungsmaßnahme

Geben Sie definition in learning configuration an.

Die Auswertung erfordert eine Lernkonfiguration, die für das Modell angegeben ist.

Problem

learning iterationkann nicht erstellt werden.

Mögliche Ursache

learning configuration ist für das Modell nicht definiert.

Fehlerbehebungsmaßnahme

Erstellen Sie learning configuration und versuchen Sie erneut, learning iteration zu erstellen.

Auswertung erfordert die Angabe der Spark-Instanz im Header X-Spark-Service-Instance

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

learning configuration verfügt nicht über die erforderlichen Informationen.

Fehlerbehebungsmaßnahme

Geben Sie spark_service in Learning Configuration oder im Header X-Spark-Service-Instance an.

Modell enthält keine Version.

Problem

Es ist nicht möglich, die learning configurationzu erstellen oder festzulegen.

Mögliche Ursache

Dieses Problem kann aufgrund einer Inkonsistenz auftreten, die sich auf die Persistenz des Modells bezieht.

Fehlerbehebungsmaßnahme

Versuchen Sie erneut, das Modell als persistent zu definieren, und versuchen Sie erneut, die Aktion auszuführen.

Das Datenmodul wurde in IBM Federated Learning nicht gefunden.

Problem

Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

Mögliche Ursache

Möglicherweise ist der Datenhandler veraltet.

Fehlerbehebungsmaßnahme

Überprüfen und aktualisieren Sie Ihren DataHandler so, dass er dem neuesten MNIST-Datenhandler entspricht, oder stellen Sie sicher, dass Ihre Beispielversionen aktuell sind.

Die Patchoperation kann nur die vorhandene Lernkonfiguration ändern.

Problem

Es ist nicht möglich, die Methode der Patch-REST-API aufzurufen, um die Lernkonfiguration zu patchen.

Mögliche Ursache

learning configuration ist für dieses Modell nicht festgelegt oder das Modell ist nicht vorhanden.

Fehlerbehebungsmaßnahme

Stellen Sie sicher, dass das Modell vorhanden ist und dass eine Lernkonfiguration festgelegt ist.

Patchoperation erwartet genau eine Operation 'replace'.

Problem

Die Bereitstellung kann nicht korrigiert werden.

Mögliche Ursache

Die Patchnutzdaten enthalten mehrere Operationen oder die Patchoperation ist nicht replace.

Fehlerbehebungsmaßnahme

Verwenden Sie nur eine Operation in den Patch-Nutzdaten, d. h. die Operation replace .

In den Nutzdaten fehlen die erforderlichen Felder: FIELD oder die Werte der Felder sind beschädigt.

Problem

Es ist nicht möglich, Aktionen zu verarbeiten, die sich auf den Zugriff auf das zugrunde liegende Dataset beziehen.

Mögliche Ursache

Der Zugriff auf das Dataset ist nicht ordnungsgemäß definiert.

Fehlerbehebungsmaßnahme

Korrigieren Sie die Zugriffsdefinition für das Dataset.

Bereitgestellte Auswertungsmethode: METHOD wird nicht unterstützt. Unterstützter Wert: VALUE.

Problem

Die Lernkonfiguration kann nicht erstellt werden.

Mögliche Ursache

Für die Erstellung der Lernkonfiguration wurde die falsche Auswertungsmethode verwendet.

Fehlerbehebungsmaßnahme

Verwenden Sie eine der folgenden unterstützten Auswertungsmethoden: regression, binary, multiclass.

Pro Modell kann nur eine aktive Auswertung vorhanden sein. Die Anforderung kann aufgrund einer vorhandenen aktiven Auswertung nicht abgeschlossen werden: {{url}}

Problem

Es ist nicht möglich, eine weitere Lerniteration zu erstellen.

Mögliche Ursache

Sie können nur eine aktive Auswertung für das Modell haben.

Fehlerbehebungsmaßnahme

Sehen Sie sich die bereits ausgeführte Auswertung an oder warten Sie, bis die Auswertung beendet ist, und starten Sie die neue Auswertung.

Der Bereitstellungstyp {{type}} wird nicht unterstützt.

Problem

Die Implementierung kann nicht erstellt werden.

Mögliche Ursache

Es wurde ein nicht unterstützter Bereitstellungstyp verwendet.

Fehlerbehebungsmaßnahme

Es muss ein unterstützter Implementierungstyp verwendet werden.

Falsche Eingabe: ({{message}})

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem tritt aufgrund eines Problems beim Parsing von JSON auf.

Fehlerbehebungsmaßnahme

Stellen Sie sicher, dass die richtige JSON in der Anforderung übergeben wird.

Unzureichende Daten-Metrik {{name}} kann nicht berechnet werden

Problem

Lerniteration fehlgeschlagen.

Mögliche Ursache

Der Wert für die Metrik mit dem definierten Schwellenwert kann aufgrund unzureichender Rückmeldedaten nicht berechnet werden.

Fehlerbehebungsmaßnahme

Überprüfen und verbessern Sie Daten in der Datenquelle feedback_data_ref in learning configuration

Für Typ {{type}} muss die Spark-Instanz im Header X-Spark-Service-Instance angegeben werden

Problem

Die Bereitstellung kann nicht erstellt werden.

Mögliche Ursache

batch -und streaming -Bereitstellungen erfordern die Bereitstellung einer Spark-Instanz

Fehlerbehebungsmaßnahme

Stellen Sie eine Spark-Instanz im Header X-Spark-Service-Instance bereit.

Die Aktion {{action}} ist mit der Nachricht {{message}} fehlgeschlagen

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem tritt aufgrund eines Problems beim Aufrufen des zugrunde liegenden Service auf.

Fehlerbehebungsmaßnahme

Wenn die Nachricht einen Vorschlag zur Behebung des Problems enthält, folgen Sie dem Vorschlag. Wenden Sie sich andernfalls an das Support-Team.

Pfad {{path}} ist nicht zulässig. Der einzige zulässige Pfad für den Patch-Datenstrom ist /status

Problem

Streambereitstellung kann nicht korrigiert werden.

Mögliche Ursache

Für die stream -Implementierung wurde der falsche Pfad verwendet.

Fehlerbehebungsmaßnahme

Korrigieren Sie die stream -Implementierung mit der unterstützten Pfadoption /status (ermöglicht das Starten/Stoppen der Datenstromverarbeitung).

Patchoperation ist nicht zulässig, z. B. vom Typ {{$type}}

Problem

Die Implementierung kann nicht korrigiert werden.

Mögliche Ursache

Der falsche Bereitstellungstyp wird korrigiert.

Fehlerbehebungsmaßnahme

Korrigieren Sie den stream -Implementierungstyp.

Datenverbindung {{data}} ist für 'feedback_data_ref' ungültig

Problem

learning configuration kann für das Modell nicht erstellt werden.

Mögliche Ursache

Die unterstützte Datenquelle wurde nicht verwendet, als feedback_data_ref definiert wurde.

Fehlerbehebungsmaßnahme

Verwenden Sie nur den unterstützten Datenquellentyp dashdb.

Pfad {{path}} ist nicht zulässig. Der einzige zulässige Pfad für das Patchmodell ist /deployed_version/url oder /deployed_version/href für V2 .

Problem

Keine Option zum Patchen des Modells.

Mögliche Ursache

Beim Patching des Modells wurde der falsche Pfad verwendet.

Fehlerbehebungsmaßnahme

Patchmodell mit unterstütztem Pfad, mit dem Sie die Version des bereitgestellten Modells aktualisieren können.

Parsing-Fehler: {{msg}}

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Die angeforderten Nutzdaten können nicht erfolgreich analysiert werden.

Fehlerbehebungsmaßnahme

Stellen Sie sicher, dass Ihre Anforderungsnutzdaten korrekt sind und ordnungsgemäß analysiert werden können.

Die Laufzeitumgebung für das ausgewählte Modell {{env}} wird für learning configurationnicht unterstützt. Unterstützte Umgebungen: [{{supported_envs}}].

Problem

Keine Option zum Erstellen von learning configuration.

Mögliche Ursache

Das Modell, für das die learning_configuration erstellt werden sollte, wird nicht unterstützt.

Fehlerbehebungsmaßnahme

Erstellen Sie learning configuration für das Modell mit der unterstützten Laufzeit.

Der aktuelle Plan '{{plan}}' lässt nur {{limit}} Bereitstellungen zu

Problem

Die Implementierung kann nicht erstellt werden.

Mögliche Ursache

Der Grenzwert für die Anzahl der Bereitstellungen wurde für den aktuellen Plan erreicht.

Fehlerbehebungsmaßnahme

Führen Sie ein Upgrade auf den Plan durch, der keine solche Einschränkung aufweist.

Datenbankverbindungsdefinition ist nicht gültig ({{code}})

Problem

Die Funktion learning configuration kann nicht verwendet werden.

Mögliche Ursache

Die Datenbankverbindungsdefinition ist ungültig.

Fehlerbehebungsmaßnahme

Versuchen Sie, das von code beschriebene Problem zu beheben, das von der zugrunde liegenden Datenbank zurückgegeben wird.

Probleme beim Verbinden des zugrunde liegenden {{system}}

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem kann aufgrund eines Problems während der Verbindung zum zugrunde liegenden System auftreten. Möglicherweise liegt ein temporäres Netzproblem vor.

Fehlerbehebungsmaßnahme

Versuchen Sie erneut, die Operation aufzurufen. Tritt erneut ein Fehler auf, wenden Sie sich an das Support-Team.

Fehler beim Extrahieren des Headers 'X-Spark-Service-Instance': ({{message}})

Problem

Dieses Problem kann auftreten, wenn die REST-API, die Spark-Berechtigungsnachweise erfordert, nicht aufgerufen werden kann.

Mögliche Ursache

Dieses Problem kann aufgrund eines Problems mit der base-64 -Decodierung oder dem Parsing von Spark-Berechtigungsnachweisen auftreten.

Fehlerbehebungsmaßnahme

Stellen Sie sicher, dass die richtigen Spark-Berechtigungsnachweise ordnungsgemäß base-64 codiert wurden. Weitere Informationen finden Sie in der Dokumentation.

Diese Funktion ist für Benutzer, die keine Betaversion sind, nicht zulässig.

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Die aufgerufene REST-API befindet sich in der Betaversion.

Fehlerbehebungsmaßnahme

Wenn Sie teilnehmen wollen, können Sie sich auf die Warteliste setzen. Die Details finden Sie in der Dokumentation.

{{code}} {{message}}

Problem

Die REST-API kann nicht erfolgreich aufgerufen werden.

Mögliche Ursache

Dieses Problem kann aufgrund eines Problems beim Aufrufen des zugrunde liegenden Service auftreten.

Fehlerbehebungsmaßnahme

Wenn die Nachricht einen Vorschlag zur Behebung des Problems enthält, folgen Sie dem Vorschlag. Wenden Sie sich andernfalls an das Support-Team.

Ratengrenzwert überschritten.

Problem

Ratengrenzwert überschritten.

Mögliche Ursache

Die Ratenbegrenzung für den aktuellen Plan wurde überschritten.

Fehlerbehebungsmaßnahme

Sie können dieses Problem lösen, indem Sie einen anderen Plan mit einem höheren Ratengrenzwert beziehen.

Ungültiger Wert für Abfrageparameter {{paramName}}: {{value}}

Problem

Gültigkeitsfehler beim Übergeben eines falschen Werts für den Abfrageparameter.

Mögliche Ursache

Fehler beim Abrufen des Ergebnisses für die Abfrage.

Fehlerbehebungsmaßnahme

Korrigieren Sie den Abfrageparameterwert. Die Details finden Sie in der Dokumentation.

Ungültiger Tokentyp: {{type}}

Problem

Fehler beim Tokentyp.

Mögliche Ursache

Fehler bei der Autorisierung.

Fehlerbehebungsmaßnahme

Token muss mit dem Präfix Bearer gestartet werden.

Ungültiges Tokenformat. Sie müssen das Trägertokenformat verwenden.

Problem

Fehler beim Tokenformat.

Mögliche Ursache

Fehler bei der Autorisierung.

Fehlerbehebungsmaßnahme

Das Token muss ein Trägertoken sein und mit dem Präfix Bearer beginnen.

JSON-Eingabedatei fehlt oder ist ungültig: 400

Problem

Die folgende Nachricht wird angezeigt, wenn Sie versuchen, Online-Scoring durchzuführen: JSON-Eingabedatei fehlt oder ist ungültig.

Mögliche Ursache

Diese Nachricht wird angezeigt, wenn die Scoring-Eingabenutzdaten nicht mit dem erwarteten Eingabetyp übereinstimmen, der für das Scoring des Modells erforderlich ist. Insbesondere können die folgenden Gründe vorliegen:

  • Die Eingabenutzdaten sind leer.
  • Das Eingabenutzdatenschema ist nicht gültig.
  • Die Eingabedatentypen entsprechen nicht den erwarteten Datentypen.

Fehlerbehebungsmaßnahme

Korrigieren Sie die Eingabenutzdaten. Stellen Sie sicher, dass die Nutzdaten die korrekte Syntax, ein gültiges Schema und die richtigen Datentypen haben. Nachdem Sie Korrekturen vorgenommen haben, versuchen Sie erneut, Online-Scoring durchzuführen. Überprüfen Sie bei Syntaxproblemen die JSON-Datei mithilfe des Befehls jsonlint .

Das Berechtigungstoken ist abgelaufen: 401

Problem

Die folgende Nachricht wird angezeigt, wenn Sie versuchen, Online-Scoring durchzuführen: Berechtigung fehlgeschlagen.

Mögliche Ursache

Diese Nachricht wird angezeigt, wenn das Token, das für das Scoring verwendet wird, abgelaufen ist.

Fehlerbehebungsmaßnahme

Generieren Sie das Token für diese IBM Watson Machine Learning -Instanz neu und versuchen Sie es erneut. Wenn das Problem bestehen bleibt, wenden Sie sich an den IBM Support.

Unbekannte Implementierungs-ID: 404

Problem

Die folgende Nachricht wird angezeigt, wenn Sie versuchen, Online-Scoring durchzuführen: Unbekannte Bereitstellungskennung.

Mögliche Ursache

Diese Nachricht wird angezeigt, wenn die für das Scoring verwendete Bereitstellungs-ID nicht vorhanden ist.

Fehlerbehebungsmaßnahme

Stellen Sie sicher, dass Sie die richtige Bereitstellungs-ID angeben. Wenn dies nicht der Fall ist, stellen Sie das Modell mit der Bereitstellungs-ID bereit und versuchen Sie das Scoring erneut.

Interner Serverfehler: 500

Problem

Die folgende Nachricht wird angezeigt, wenn Sie versuchen, Online-Scoring durchzuführen: Interner Serverfehler.

Mögliche Ursache

Diese Nachricht wird angezeigt, wenn der nachgeordnete Datenfluss fehlschlägt, von dem das Online-Scoring abhängt.

Fehlerbehebungsmaßnahme

Warten Sie einige Zeit und versuchen Sie erneut, online zu punkten. Wenn sie erneut fehlschlägt, wenden Sie sich an den IBM Support.

Ungültiger Typ für 'ml_Artefakt': Pipeline

Problem

Die folgende Nachricht wird angezeigt, wenn Sie versuchen, ein Spark-Modell mithilfe der allgemeinen API-Clientbibliothek auf Ihrer Workstation zu veröffentlichen.

Mögliche Ursache

Diese Nachricht wird angezeigt, wenn im Betriebssystem ein ungültiger Pyspark eingerichtet ist.

Fehlerbehebungsmaßnahme

Richten Sie die Systemumgebungspfade entsprechend der Anweisung ein:

SPARK_HOME={installed_spark_path}
JAVA_HOME={installed_java_path}
PYTHONPATH=$SPARK_HOME/python/

ValueError: Name und Verbindung für 'Training_data_ref' kann nicht 'None' sein, wenn Pipelineartefakt nicht angegeben wird.

Problem

Das Trainingsdataset fehlt oder wird nicht ordnungsgemäß referenziert.

Mögliche Ursache

Das Pipelineartefakt ist ein Trainingsdatenset in dieser Instanz.

Fehlerbehebungsmaßnahme

Sie müssen ein Trainingsdataset angeben, wenn Sie ein Spark- PipelineModelpersistent speichern. Wenn Sie das nicht tun, sagt der Client, dass er PipelineModels, nicht unterstützt, anstatt zu sagen, dass ein PipelineModel mit dem Trainingssatz einhergehen muss.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen