Im Folgenden finden Sie Antworten auf häufig gestellte Fragen zur Fehlerbehebung bei der Verwendung von IBM Watson Machine Learning.
Hilfe und Unterstützung für Watson Machine Learning anfordern
Wenn bei der Verwendung von Watson Machine LearningProbleme oder Fragen auftreten, können Sie Hilfe anfordern, indem Sie in einem Forum nach Informationen suchen oder Fragen stellen. Sie können auch ein Support-Ticket öffnen.
Wenn Sie die Foren verwenden, um eine Frage zu stellen, kennzeichnen Sie Ihre Frage so, dass sie von den Watson Machine Learning -Entwicklungsteams gesehen wird.
Wenn Sie technische Fragen zu Watson Machine Learninghaben, posten Sie Ihre Frage auf Stack Overflow und kennzeichnen Sie sie mit ibm-bluemix und machine-learning.
Bei Fragen zum Service und zu den einführenden Anweisungen verwenden Sie das Forum IBM developerWorks dW Answers . Sie müssen die Tags machine-learning und bluemix einschließen.
Inhalt
Training eines AutoAI-Experiments schlägt mit Service-ID-Anmeldeinformationen fehl
Erstellung eines Auftrags für einen SPSS Modeler Fluss in einem Bereitstellungsraum schlägt fehl
Der für die Authentifizierung erforderliche öffentliche Schlüssel ist nicht verfügbar
Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{status}}
Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{response}}
Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{json}}
Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{message}}
Die zugrunde liegende Datenbank hat zu viele Anforderungen gemeldet
Auswertung erfordert eine Lernkonfiguration, die für das Modell angegeben ist
Für die Auswertung muss eine Spark-Instanz im Header
X-Spark-Service-Instance
angegeben werdenIn den Nutzdaten fehlen die erforderlichen Felder: FIELD oder die Werte der Felder sind beschädigt
Bereitgestellte Auswertungsmethode: METHOD wird nicht unterstützt. Unterstützte Werte: VALUE
Nicht genügend Daten-Metrik {{name}} wird möglicherweise nicht berechnet.
Für den Typ {{type}} muss die Spark-Instanz im Header
X-Spark-Service-Instance
angegeben werdenDie Aktion {{action}} ist mit der Nachricht {{message}}fehlgeschlagen
Datenverbindung
{{data}}
ist für 'feedback_data_ref' ungültigDer aktuelle Plan '{{plan}}' lässt nur {{limit}} Bereitstellungen zu
Fehler beim Extrahieren des Headers 'X-Spark-Service-Instance': ({{message}})
Diese Funktion ist für Benutzer ohne Betaversion nicht zulässig.
Ungültiger Abfrageparameter
{{paramName}}
mit diesem Wert: {{value}}Ungültiges Tokenformat. Sie müssen das Trägertokenformat verwenden.
Befolgen Sie diese Tipps, um häufige Probleme zu lösen, die bei der Arbeit mit Watson Machine Learning auftreten können.
Training eines AutoAI-Experiments schlägt mit Service-ID-Anmeldeinformationen fehl
Wenn Sie ein AutoAI-Experiment mit dem API-Schlüssel für die serviceID, trainieren, kann das Training mit diesem Fehler fehlschlagen:
User specified in query parameters does not match user from token.
Eine Möglichkeit, dieses Problem zu lösen, besteht darin, das Experiment mit Ihren Benutzeranmeldedaten durchzuführen. Wenn Sie das Experiment mit Anmeldeinformationen für den Dienst durchführen möchten, führen Sie die folgenden Schritte aus, um die Rollen und Richtlinien für die Dienst-ID zu aktualisieren.
Öffnen Sie Ihre serviceID auf IBM Cloud.
Erstellen Sie eine neue serviceID oder aktualisieren Sie die vorhandene ID mit der folgenden Zugriffsrichtlinie:
- Alle IAM Account Management Services mit den Rollen API Key Reviewer, User API Key Creator, Viewer, Operator und Editor. Am besten ist es, wenn sie einen neuen apikey für diese ServiceId erstellen.
Die aktualisierte Richtlinie wird wie folgt aussehen:
Führen Sie das Training erneut mit den Anmeldeinformationen für die aktualisierte serviceID durch.
Das Bereitstellen eines benutzerdefinierten Basismodells aus einem Bereitstellungsbereich schlägt fehl
Wenn Sie eine Bereitstellung für ein benutzerdefiniertes Basismodell aus Ihrem Bereitstellungsbereich erstellen, kann Ihre Bereitstellung aus vielen Gründen fehlschlagen. Befolgen Sie diese Tipps, um häufige Probleme zu beheben, die bei der Bereitstellung Ihrer benutzerdefinierten Foundation-Modelle aus einem Bereitstellungsbereich auftreten können.
Fall 1: Parameterwert liegt außerhalb des Bereichs
Wenn Sie eine Bereitstellung für ein benutzerdefiniertes Basismodell aus Ihrem Bereitstellungsbereich erstellen, müssen Sie sicherstellen, dass die Werte Ihrer Basismodellparameter innerhalb des angegebenen Bereichs liegen. Weitere Informationen finden Sie unter Eigenschaften und Parameter für benutzerdefinierte Fundamentmodelle. Wenn Sie einen Wert eingeben, der außerhalb des angegebenen Bereichs liegt, kann ein Fehler auftreten.
Zum Beispiel muss der Wert des Parameters max_new_tokens
kleiner sein als max_sequence_length
. Wenn Sie beim Aktualisieren der Basismodellparameterwerte einen Wert für max_new_tokens
eingeben, der größer oder gleich dem Wert von max_sequence_length
(2048) ist, kann ein Fehler auftreten.
Das folgende Bild zeigt ein Beispiel für eine Fehlermeldung: Value must be an integer between 20 and 1000000000000000 and be greater than 'Max New Tokens'
.
Wenn die Standardwerte für Ihre Modellparameter zu einem Fehler führen, wenden Sie sich an Ihren Administrator, um die Registrierung des Modells in der watsonxaiifm CR zu ändern.
Fall 2: Nicht unterstützter Datentyp
Sie müssen darauf achten, dass Sie einen Datentyp auswählen, der von Ihrem benutzerdefinierten Basismodell unterstützt wird. Wenn Sie beim Aktualisieren der Basismodellparameterwerte den Datentyp für Ihr bereitgestelltes Modell mit einem nicht unterstützten Datentyp aktualisieren, kann die Bereitstellung fehlschlagen.
Das Modell LLaMA-Pro-8B-Instruct-GPTQ
unterstützt zum Beispiel nur den Datentyp float16
. Wenn Sie das Modell LLaMA-Pro-8B-Instruct-GPTQ
mit float16
Enum
einsetzen und dann den Parameter Enum
von float16
auf bfloat16
aktualisieren, schlägt der Einsatz fehl.
Wenn der Datentyp, den Sie für Ihr benutzerdefiniertes Basismodell ausgewählt haben, zu einem Fehler führt, können Sie den Datentyp für das benutzerdefinierte Basismodell während der Erstellung der Bereitstellung überschreiben oder sich an Ihren Administrator wenden, um die Registrierung des Modells in der CR watsonxaiifm zu ändern.
Fall 3: Parameterwert ist zu groß
Wenn Sie einen sehr großen Wert für die Parameter max_sequence_length
und max_new_token
eingeben, kann ein Fehler auftreten. Wenn Sie beispielsweise den Wert von max_sequence_length
als 1000000000000000
festlegen, wird folgende Fehlermeldung angezeigt:
Die Bereitstellung des benutzerdefinierten Foundation-Modells ist fehlgeschlagen. Der Vorgang ist fehlgeschlagen aufgrund von 'max_batch_weight (19596417433) nicht groß genug für (prefill) max_sequence_length (1000000000000000)'. Wiederholen Sie die Operation. Wenden Sie sich an den IBM Support, wenn das Problem bestehen bleibt.
Sie müssen darauf achten, dass Sie einen Wert für den Parameter eingeben, der kleiner ist als der in der Modellkonfigurationsdatei definierte Wert (config.json
).
Fall 4: model.safetensors
Datei wird mit nicht unterstützten Bibliotheken gespeichert
Wenn die model.safetensors
-Datei für Ihr benutzerdefiniertes Basismodell ein nicht unterstütztes Datenformat im Metadaten-Header verwendet, kann Ihre Bereitstellung fehlschlagen.
Wenn Sie beispielsweise das benutzerdefinierte OccamRazor/mpt-7b-storywriter-4bit-128g
-Foundation-Modell aus Hugging Face in Ihren Bereitstellungsbereich importieren und eine Online-Bereitstellung erstellen, kann Ihre Bereitstellung fehlschlagen. Das liegt daran, dass die model.safetensors
-Datei für das OccamRazor/mpt-7b-storywriter-4bit-128g
-Modell mit der save_pretrained
gespeichert wird, die eine nicht unterstützte Bibliothek ist. Sie empfangen möglicherweise die folgende Fehlernachricht:
Der Vorgang ist fehlgeschlagen, weil das 'NoneType' Objekt kein Attribut 'get' hat.
Sie müssen sicherstellen, dass Ihr benutzerdefiniertes Fundamentmodell mit der unterstützten transformers
-Bibliothek gespeichert wird.
Fall 5: Einsatz eines Llama 3.1 Modells schlägt fehl
Wenn die Bereitstellung des Modells Llama 3.1 fehlschlägt, versuchen Sie, den Inhalt der config.json
-Datei Ihres Modells zu bearbeiten:
- Suchen Sie den Eintrag
eos_token_id
. - Ändern Sie den Wert des Eintrags von einem Array in eine Ganzzahl.
Versuchen Sie dann, Ihr Modell neu zu verteilen.
Das Erstellen eines Auftrags für einen SPSS Modeler-Fluss in einem Bereitstellungsraum schlägt fehl
Während der Konfiguration eines Batch-Jobs für Ihren SPSS Modeler-Flow in einem Deployment-Space kann die automatische Zuordnung von Daten-Assets zu ihrer jeweiligen Verbindung fehlschlagen.
Gehen Sie folgendermaßen vor, um den Fehler bei der automatischen Zuordnung von Datenbeständen und Verbindungen zu beheben:
Klicken Sie auf Erstellen und speichern, um Ihren Fortschritt zu speichern und das Konfigurationsdialogfeld Neuer Auftrag zu verlassen.
Klicken Sie in Ihrem Bereitstellungsbereich auf die Registerkarte Jobs und wählen Sie Ihren SPSS Modeler Flow Job aus, um die Details Ihres Jobs zu überprüfen.
Klicken Sie auf der Seite mit den Auftragsdetails auf das Symbol Bearbeiten , um die Zuordnung Ihrer Datenbestände und Verbindungen manuell zu aktualisieren.
Nachdem Sie die Zuordnung von Datenbeständen und Verbindungen aktualisiert haben, können Sie im Dialogfeld Neuer Auftrag mit der Konfiguration der Einstellungen für Ihren Auftrag fortfahren. Weitere Informationen finden Sie unter Erstellen von Bereitstellungsaufträgen für SPSS Modeler-Flows
Inaktive Watson Machine Learning -Instanz
Symptome
Nachdem Sie versucht haben, eine Inferenzanforderung an ein Basismodell zu übergeben, indem Sie im Eingabeaufforderungslabor auf die Schaltfläche Generieren klicken, wird die folgende Fehlernachricht angezeigt:
'code': 'no_associated_service_instance_error',
'message': 'WML instance {instance_id} status is not active, current status: Inactive'
Mögliche Ursachen
Die Zuordnung zwischen Ihrem Projekt watsonx.ai und der zugehörigen Watson Machine Learning -Serviceinstanz ging verloren.
Mögliche Lösungen
Erstellen oder aktualisieren Sie die Zuordnung zwischen Ihrem watsonx.ai -Projekt und der zugehörigen Watson Machine Learning -Serviceinstanz. Führen Sie dazu die folgenden Schritte aus:
- Erweitern Sie im Hauptmenü Projekteund klicken Sie dann auf Alle Projekte anzeigen.
- Klicken Sie auf Ihr Projekt watsonx.ai .
- Klicken Sie auf der Registerkarte Verwalten auf Services & Integrationen.
- Wenn die entsprechende Watson Machine Learning -Serviceinstanz aufgelistet wird, heben Sie die Zuordnung auf, indem Sie die Instanz auswählen und anschließend auf Entfernenklicken. Bestätigen Sie das Entfernen.
- Klicken Sie auf Service zuordnen.
- Wählen Sie die entsprechende Watson Machine Learning -Serviceinstanz aus der Liste aus und klicken dann auf Zuordnen.
Der für die Authentifizierung erforderliche öffentliche Schlüssel ist nicht verfügbar.
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem kann aufgrund interner Serviceprobleme auftreten.
Fehlerbehebungsmaßnahme
Wenden Sie sich an das Support-Team.
Operation, die nach {{timeout}} das zulässige Zeitlimit überschritten hat
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Das Zeitlimit wurde beim Ausführen der angeforderten Operation überschritten.
Fehlerbehebungsmaßnahme
Versuchen Sie erneut, die Operation aufzurufen.
Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{status}}
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem kann aufgrund interner Serviceprobleme auftreten.
Fehlerbehebungsmaßnahme
Versuchen Sie erneut, die Operation aufzurufen. Wenn dies erneut auftritt, wenden Sie sich an das Support-Team.
Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{response}}
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem kann aufgrund interner Serviceprobleme auftreten.
Fehlerbehebungsmaßnahme
Versuchen Sie erneut, die Operation aufzurufen. Wenn dies erneut auftritt, wenden Sie sich an das Support-Team.
Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{json}}
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem kann aufgrund interner Serviceprobleme auftreten.
Fehlerbehebungsmaßnahme
Versuchen Sie erneut, die Operation aufzurufen. Wenn dies erneut auftritt, wenden Sie sich an das Support-Team.
Nicht behandelte Ausnahmebedingung des Typs {{type}} mit {{message}}
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem kann aufgrund interner Serviceprobleme auftreten.
Fehlerbehebungsmaßnahme
Versuchen Sie erneut, die Operation aufzurufen. Wenn dies erneut auftritt, wenden Sie sich an das Support-Team.
Das angeforderte Objekt wurde nicht gefunden.
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Die Anforderungsressource wurde nicht gefunden.
Fehlerbehebungsmaßnahme
Stellen Sie sicher, dass Sie auf die vorhandene Ressource verweisen.
Die zugrunde liegende Datenbank hat zu viele Anforderungen gemeldet.
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Der Benutzer hat zu viele Anforderungen in einer bestimmten Zeit gesendet.
Fehlerbehebungsmaßnahme
Versuchen Sie erneut, die Operation aufzurufen.
Die Definition der Bewertung ist nicht in der artifactModelVersion oder der Bereitstellung definiert. Sie muss angegeben werden. + \n "mindestens an einer der Stellen.
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Lernkonfiguration enthält nicht alle erforderlichen Informationen
Fehlerbehebungsmaßnahme
Geben Sie definition
in learning configuration
an.
Die Auswertung erfordert eine Lernkonfiguration, die für das Modell angegeben ist.
Problem
learning iteration
kann nicht erstellt werden.
Mögliche Ursache
learning configuration
ist für das Modell nicht definiert.
Fehlerbehebungsmaßnahme
Erstellen Sie learning configuration
und versuchen Sie erneut, learning iteration
zu erstellen.
Auswertung erfordert die Angabe der Spark-Instanz im Header X-Spark-Service-Instance
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
learning configuration
verfügt nicht über die erforderlichen Informationen.
Fehlerbehebungsmaßnahme
Geben Sie spark_service
in Learning Configuration oder im Header X-Spark-Service-Instance
an.
Modell enthält keine Version.
Problem
Es ist nicht möglich, die learning configuration
zu erstellen oder festzulegen.
Mögliche Ursache
Dieses Problem kann aufgrund einer Inkonsistenz auftreten, die sich auf die Persistenz des Modells bezieht.
Fehlerbehebungsmaßnahme
Versuchen Sie erneut, das Modell als persistent zu definieren, und versuchen Sie erneut, die Aktion auszuführen.
Das Datenmodul wurde in IBM Federated Learning nicht gefunden.
Problem
Der Datenhandler für IBM Federated Learning versucht, ein Datenmodul aus der FL-Bibliothek zu extrahieren, das nicht gefunden werden kann. Möglicherweise wird die folgende Fehlernachricht angezeigt:
ModuleNotFoundError: No module named 'ibmfl.util.datasets'
Mögliche Ursache
Möglicherweise ist der Datenhandler veraltet.
Fehlerbehebungsmaßnahme
Überprüfen und aktualisieren Sie Ihren DataHandler so, dass er dem neuesten MNIST-Datenhandler entspricht, oder stellen Sie sicher, dass Ihre Beispielversionen aktuell sind.
Die Patchoperation kann nur die vorhandene Lernkonfiguration ändern.
Problem
Es ist nicht möglich, die Methode der Patch-REST-API aufzurufen, um die Lernkonfiguration zu patchen.
Mögliche Ursache
learning configuration
ist für dieses Modell nicht festgelegt oder das Modell ist nicht vorhanden.
Fehlerbehebungsmaßnahme
Stellen Sie sicher, dass das Modell vorhanden ist und dass eine Lernkonfiguration festgelegt ist.
Patchoperation erwartet genau eine Operation 'replace'.
Problem
Die Bereitstellung kann nicht korrigiert werden.
Mögliche Ursache
Die Patchnutzdaten enthalten mehrere Operationen oder die Patchoperation ist nicht replace
.
Fehlerbehebungsmaßnahme
Verwenden Sie nur eine Operation in den Patch-Nutzdaten, d. h. die Operation replace
.
In den Nutzdaten fehlen die erforderlichen Felder: FIELD oder die Werte der Felder sind beschädigt.
Problem
Es ist nicht möglich, Aktionen zu verarbeiten, die sich auf den Zugriff auf das zugrunde liegende Dataset beziehen.
Mögliche Ursache
Der Zugriff auf das Dataset ist nicht ordnungsgemäß definiert.
Fehlerbehebungsmaßnahme
Korrigieren Sie die Zugriffsdefinition für das Dataset.
Bereitgestellte Auswertungsmethode: METHOD wird nicht unterstützt. Unterstützter Wert: VALUE.
Problem
Die Lernkonfiguration kann nicht erstellt werden.
Mögliche Ursache
Für die Erstellung der Lernkonfiguration wurde die falsche Auswertungsmethode verwendet.
Fehlerbehebungsmaßnahme
Verwenden Sie eine der folgenden unterstützten Auswertungsmethoden: regression
, binary
, multiclass
.
Pro Modell kann nur eine aktive Auswertung vorhanden sein. Die Anforderung kann aufgrund einer vorhandenen aktiven Auswertung nicht abgeschlossen werden: {{url}}
Problem
Es ist nicht möglich, eine weitere Lerniteration zu erstellen.
Mögliche Ursache
Sie können nur eine aktive Auswertung für das Modell haben.
Fehlerbehebungsmaßnahme
Sehen Sie sich die bereits ausgeführte Auswertung an oder warten Sie, bis die Auswertung beendet ist, und starten Sie die neue Auswertung.
Der Bereitstellungstyp {{type}} wird nicht unterstützt.
Problem
Die Implementierung kann nicht erstellt werden.
Mögliche Ursache
Es wurde ein nicht unterstützter Bereitstellungstyp verwendet.
Fehlerbehebungsmaßnahme
Es muss ein unterstützter Implementierungstyp verwendet werden.
Falsche Eingabe: ({{message}})
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem tritt aufgrund eines Problems beim Parsing von JSON auf.
Fehlerbehebungsmaßnahme
Stellen Sie sicher, dass die richtige JSON in der Anforderung übergeben wird.
Unzureichende Daten-Metrik {{name}} kann nicht berechnet werden
Problem
Lerniteration fehlgeschlagen.
Mögliche Ursache
Der Wert für die Metrik mit dem definierten Schwellenwert kann aufgrund unzureichender Rückmeldedaten nicht berechnet werden.
Fehlerbehebungsmaßnahme
Überprüfen und verbessern Sie Daten in der Datenquelle feedback_data_ref
in learning configuration
Für Typ {{type}} muss die Spark-Instanz im Header X-Spark-Service-Instance
angegeben werden
Problem
Die Bereitstellung kann nicht erstellt werden.
Mögliche Ursache
batch
-und streaming
-Bereitstellungen erfordern die Bereitstellung einer Spark-Instanz
Fehlerbehebungsmaßnahme
Stellen Sie eine Spark-Instanz im Header X-Spark-Service-Instance
bereit.
Die Aktion {{action}} ist mit der Nachricht {{message}} fehlgeschlagen
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem tritt aufgrund eines Problems beim Aufrufen des zugrunde liegenden Service auf.
Fehlerbehebungsmaßnahme
Wenn die Nachricht einen Vorschlag zur Behebung des Problems enthält, folgen Sie dem Vorschlag. Wenden Sie sich andernfalls an das Support-Team.
Pfad {{path}}
ist nicht zulässig. Der einzige zulässige Pfad für den Patch-Datenstrom ist /status
Problem
Streambereitstellung kann nicht korrigiert werden.
Mögliche Ursache
Für die stream
-Implementierung wurde der falsche Pfad verwendet.
Fehlerbehebungsmaßnahme
Korrigieren Sie die stream
-Implementierung mit der unterstützten Pfadoption /status
(ermöglicht das Starten/Stoppen der Datenstromverarbeitung).
Patchoperation ist nicht zulässig, z. B. vom Typ {{$type}}
Problem
Die Implementierung kann nicht korrigiert werden.
Mögliche Ursache
Der falsche Bereitstellungstyp wird korrigiert.
Fehlerbehebungsmaßnahme
Korrigieren Sie den stream
-Implementierungstyp.
Datenverbindung {{data}}
ist für 'feedback_data_ref' ungültig
Problem
learning configuration
kann für das Modell nicht erstellt werden.
Mögliche Ursache
Die unterstützte Datenquelle wurde nicht verwendet, als feedback_data_ref
definiert wurde.
Fehlerbehebungsmaßnahme
Verwenden Sie nur den unterstützten Datenquellentyp dashdb
.
Pfad {{path}} ist nicht zulässig. Der einzige zulässige Pfad für das Patchmodell ist /deployed_version/url
oder /deployed_version/href
für V2 .
Problem
Keine Option zum Patchen des Modells.
Mögliche Ursache
Beim Patching des Modells wurde der falsche Pfad verwendet.
Fehlerbehebungsmaßnahme
Patchmodell mit unterstütztem Pfad, mit dem Sie die Version des bereitgestellten Modells aktualisieren können.
Parsing-Fehler: {{msg}}
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Die angeforderten Nutzdaten können nicht erfolgreich analysiert werden.
Fehlerbehebungsmaßnahme
Stellen Sie sicher, dass Ihre Anforderungsnutzdaten korrekt sind und ordnungsgemäß analysiert werden können.
Die Laufzeitumgebung für das ausgewählte Modell {{env}} wird für learning configuration
nicht unterstützt. Unterstützte Umgebungen: [{{supported_envs}}].
Problem
Keine Option zum Erstellen von learning configuration
.
Mögliche Ursache
Das Modell, für das die learning_configuration
erstellt werden sollte, wird nicht unterstützt.
Fehlerbehebungsmaßnahme
Erstellen Sie learning configuration
für das Modell mit der unterstützten Laufzeit.
Der aktuelle Plan '{{plan}}' lässt nur {{limit}} Bereitstellungen zu
Problem
Die Implementierung kann nicht erstellt werden.
Mögliche Ursache
Der Grenzwert für die Anzahl der Bereitstellungen wurde für den aktuellen Plan erreicht.
Fehlerbehebungsmaßnahme
Führen Sie ein Upgrade auf den Plan durch, der keine solche Einschränkung aufweist.
Datenbankverbindungsdefinition ist nicht gültig ({{code}})
Problem
Die Funktion learning configuration
kann nicht verwendet werden.
Mögliche Ursache
Die Datenbankverbindungsdefinition ist ungültig.
Fehlerbehebungsmaßnahme
Versuchen Sie, das von code
beschriebene Problem zu beheben, das von der zugrunde liegenden Datenbank zurückgegeben wird.
Probleme beim Verbinden des zugrunde liegenden {{system}}
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem kann aufgrund eines Problems während der Verbindung zum zugrunde liegenden System auftreten. Möglicherweise liegt ein temporäres Netzproblem vor.
Fehlerbehebungsmaßnahme
Versuchen Sie erneut, die Operation aufzurufen. Tritt erneut ein Fehler auf, wenden Sie sich an das Support-Team.
Fehler beim Extrahieren des Headers 'X-Spark-Service-Instance': ({{message}})
Problem
Dieses Problem kann auftreten, wenn die REST-API, die Spark-Berechtigungsnachweise erfordert, nicht aufgerufen werden kann.
Mögliche Ursache
Dieses Problem kann aufgrund eines Problems mit der base-64 -Decodierung oder dem Parsing von Spark-Berechtigungsnachweisen auftreten.
Fehlerbehebungsmaßnahme
Stellen Sie sicher, dass die richtigen Spark-Berechtigungsnachweise ordnungsgemäß base-64 codiert wurden. Weitere Informationen finden Sie in der Dokumentation.
Diese Funktion ist für Benutzer, die keine Betaversion sind, nicht zulässig.
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Die aufgerufene REST-API befindet sich in der Betaversion.
Fehlerbehebungsmaßnahme
Wenn Sie teilnehmen wollen, können Sie sich auf die Warteliste setzen. Die Details finden Sie in der Dokumentation.
{{code}} {{message}}
Problem
Die REST-API kann nicht erfolgreich aufgerufen werden.
Mögliche Ursache
Dieses Problem kann aufgrund eines Problems beim Aufrufen des zugrunde liegenden Service auftreten.
Fehlerbehebungsmaßnahme
Wenn die Nachricht einen Vorschlag zur Behebung des Problems enthält, folgen Sie dem Vorschlag. Wenden Sie sich andernfalls an das Support-Team.
Ratengrenzwert überschritten.
Problem
Ratengrenzwert überschritten.
Mögliche Ursache
Die Ratenbegrenzung für den aktuellen Plan wurde überschritten.
Fehlerbehebungsmaßnahme
Sie können dieses Problem lösen, indem Sie einen anderen Plan mit einem höheren Ratengrenzwert beziehen.
Ungültiger Wert für Abfrageparameter {{paramName}}
: {{value}}
Problem
Gültigkeitsfehler beim Übergeben eines falschen Werts für den Abfrageparameter.
Mögliche Ursache
Fehler beim Abrufen des Ergebnisses für die Abfrage.
Fehlerbehebungsmaßnahme
Korrigieren Sie den Abfrageparameterwert. Die Details finden Sie in der Dokumentation.
Ungültiger Tokentyp: {{type}}
Problem
Fehler beim Tokentyp.
Mögliche Ursache
Fehler bei der Autorisierung.
Fehlerbehebungsmaßnahme
Token muss mit dem Präfix Bearer
gestartet werden.
Ungültiges Tokenformat. Sie müssen das Trägertokenformat verwenden.
Problem
Fehler beim Tokenformat.
Mögliche Ursache
Fehler bei der Autorisierung.
Fehlerbehebungsmaßnahme
Das Token muss ein Trägertoken sein und mit dem Präfix Bearer
beginnen.
JSON-Eingabedatei fehlt oder ist ungültig: 400
Problem
Die folgende Nachricht wird angezeigt, wenn Sie versuchen, Online-Scoring durchzuführen: JSON-Eingabedatei fehlt oder ist ungültig.
Mögliche Ursache
Diese Nachricht wird angezeigt, wenn die Scoring-Eingabenutzdaten nicht mit dem erwarteten Eingabetyp übereinstimmen, der für das Scoring des Modells erforderlich ist. Insbesondere können die folgenden Gründe vorliegen:
- Die Eingabenutzdaten sind leer.
- Das Eingabenutzdatenschema ist nicht gültig.
- Die Eingabedatentypen entsprechen nicht den erwarteten Datentypen.
Fehlerbehebungsmaßnahme
Korrigieren Sie die Eingabenutzdaten. Stellen Sie sicher, dass die Nutzdaten die korrekte Syntax, ein gültiges Schema und die richtigen Datentypen haben. Nachdem Sie Korrekturen vorgenommen haben, versuchen Sie erneut, Online-Scoring durchzuführen. Überprüfen Sie bei Syntaxproblemen die JSON-Datei mithilfe des Befehls jsonlint
.
Unbekannte Implementierungs-ID: 404
Problem
Die folgende Nachricht wird angezeigt, wenn Sie versuchen, Online-Scoring durchzuführen: Unbekannte Bereitstellungskennung.
Mögliche Ursache
Diese Nachricht wird angezeigt, wenn die für das Scoring verwendete Bereitstellungs-ID nicht vorhanden ist.
Fehlerbehebungsmaßnahme
Stellen Sie sicher, dass Sie die richtige Bereitstellungs-ID angeben. Wenn dies nicht der Fall ist, stellen Sie das Modell mit der Bereitstellungs-ID bereit und versuchen Sie das Scoring erneut.
Interner Serverfehler: 500
Problem
Die folgende Nachricht wird angezeigt, wenn Sie versuchen, Online-Scoring durchzuführen: Interner Serverfehler.
Mögliche Ursache
Diese Nachricht wird angezeigt, wenn der nachgeordnete Datenfluss fehlschlägt, von dem das Online-Scoring abhängt.
Fehlerbehebungsmaßnahme
Warten Sie einige Zeit und versuchen Sie erneut, online zu punkten. Wenn sie erneut fehlschlägt, wenden Sie sich an den IBM Support.
Ungültiger Typ für 'ml_Artefakt': Pipeline
Problem
Die folgende Nachricht wird angezeigt, wenn Sie versuchen, ein Spark-Modell mithilfe der allgemeinen API-Clientbibliothek auf Ihrer Workstation zu veröffentlichen.
Mögliche Ursache
Diese Nachricht wird angezeigt, wenn im Betriebssystem ein ungültiger Pyspark eingerichtet ist.
Fehlerbehebungsmaßnahme
Richten Sie die Systemumgebungspfade entsprechend der Anweisung ein:
SPARK_HOME={installed_spark_path}
JAVA_HOME={installed_java_path}
PYTHONPATH=$SPARK_HOME/python/
ValueError: Name und Verbindung für 'Training_data_ref' kann nicht 'None' sein, wenn Pipelineartefakt nicht angegeben wird.
Problem
Das Trainingsdataset fehlt oder wird nicht ordnungsgemäß referenziert.
Mögliche Ursache
Das Pipelineartefakt ist ein Trainingsdatenset in dieser Instanz.
Fehlerbehebungsmaßnahme
Sie müssen ein Trainingsdataset angeben, wenn Sie ein Spark- PipelineModelpersistent speichern. Wenn Sie das nicht tun, sagt der Client, dass er PipelineModels, nicht unterstützt, anstatt zu sagen, dass ein PipelineModel mit dem Trainingssatz einhergehen muss.