0 / 0

Fehlerbehebung für IBM DataStage

Letzte Aktualisierung: 06. Mai 2025
Fehlerbehebung in IBM DataStage

Verwenden Sie diese Lösungen, um Probleme zu beheben, die bei IBM® DataStage®auftreten können.

Hilfe und Unterstützung für DataStage anfordern

Wenn Sie Probleme oder Fragen bei der Verwendung von DataStage haben, können Sie Hilfe erhalten, indem Sie nach Informationen suchen oder in einem Forum Fragen stellen. Sie können auch ein Support-Ticket öffnen.

Wenn Sie eine Frage in den Foren stellen, kennzeichnen Sie Ihre Frage so, dass sie von den DataStage -Entwicklungsteams gesehen wird.

Bei Fragen zum Service und zu einführenden Anweisungen verwenden Sie das Forum unter https://stackoverflow.com/questions/tagged/datastage.

Wenn Sie das Problem trotzdem nicht lösen können, können Sie ein IBM Support-Ticket öffnen. Informationen zum Öffnen eines IBM Support-Tickets oder zu Support-Levels finden Sie unter https://cloud.ibm.com/unifiedsupport/supportcenter.

Allgemein
Connectors
Laufzeit

Allgemein

Jobs schlagen fehl, da SQL-und Vorbereitungs-SQL-Anweisungen in falscher Reihenfolge ausgeführt werden

Im Teradata -Connector, der auf den ANSI-Transaktionsmodus gesetzt ist, kann die Vorbereitungs-SQL-Anweisung nach der SQL-Anweisung statt vor ausgeführt werden, wodurch der Job fehlschlägt.

Problemumgehung:Fügen Sie nach jeder Vorbereitungs-SQL-Anweisung eine Commitanweisung hinzu.

Der Befehl mailx kann nicht in Vorjob-und Nachjobsubroutinen ohne SMTP-Serverinformationen ausgeführt werden

Wenn der Befehl mailx in einer Vorjob-oder Nachjobsubroutine verwendet wird, müssen Sie die SMTP-Serverinformationen angeben. Andernfalls wird die Ausführung an sendmail weitergeleitet und schlägt fehl.

Eigenschaftenauswahlen werden nicht beibehalten, wenn Sie die Option " DataStage -Eigenschaften verwenden" abwählen

Wenn Sie andere Eigenschaften eingeben (z. B. für Tabellen oder Schemata) und die Standardoption DataStage -Eigenschaften verwenden ausgewählt ist und dann die Option DataStage -Eigenschaften verwendenabwählen, werden die Eigenschaften nicht beibehalten.

Problemumgehung: Wählen Sie die Standardeigenschaften DataStage verwenden ab, wenn Sie sie nicht verwenden möchten, bevor Sie andere Eigenschaften eingeben. Wählen Sie andernfalls die Eigenschaften erneut aus.

Routine schlägt fehl, wenn die CEL-Funktion ds.getUserStatus in einem externen Ablauf ausgeführt wird

Wenn die integrierte CEL-Funktion ds.getUserStatus auf einem Ziel ausgeführt wird, das sich nicht in derselben Pipeline befindet, schlägt sie fehl und kann den Benutzerstatus nicht abrufen. Verwenden Sie stattdessen die dsjob -CLI in Ihrem Knoten "Run Bash script".

Ein Beispiel dafür, wie dies umgeschrieben werden kann, finden Sie unter dem Befehl dsjob , der von DSGetUserStatus() verwendet wird, in den Beispielen für die Ersetzung von Routinen unter DataStage.

Job schlägt beim Laden einer großen Excel-Datei fehl

Ein Job mit einem Connector, der eine große Excel-Datei verarbeitet, kann mit folgendem Fehler fehlschlagen:

"CDICO9999E: Internal error occurred: IO error: The Excel file is too large. (error code: DATA_IO_ERROR)" 

Versuchen Sie, die Größe des Heapspeichers zu erhöhen. Die Eigenschaftsoption für die Größe des Heapspeichers befindet sich im Abschnitt Weitere Eigenschaften der Registerkarte Stage des Connectors.

Exportierte Abläufe generieren JSON-Verbindungsdateien, die Klartextkennwörter enthalten
Heruntergeladene Datenflüsse können Verbindungsassets mit Berechtigungsnachweisen oder anderen sensiblen Informationen enthalten. Sie können den folgenden Befehl ausführen, um das Exportverhalten so zu ändern, dass alle zukünftigen Exporte Berechtigungsnachweise standardmäßig entfernen.

oc -n ${PROJECT_CPD_INST_OPERANDS} patch datastage datastage --patch '{"spec":{"migration_export_remove_secrets":true}}' --type=merge
Probleme beim Durchsuchen von Datenbanktabellen mit Spalten, die Sonderzeichen enthalten

Bei der Verwendung des Asset-Browsers zum Durchsuchen von Datenbanktabellen können Probleme auftreten, wenn die ausgewählte Tabelle eine Spalte mit Sonderzeichen wie ., $oder #enthält und Sie diese Tabelle einem DataStage -Ablauf hinzufügen. DataStage unterstützt keine Spaltennamen, die Sonderzeichen enthalten. DataStage -Abläufe, die auf Spalten mit Namen verweisen, die diese Sonderzeichen enthalten, funktionieren nicht.

Um dieses Problem zu umgehen, erstellen Sie eine Sicht für die Datenbanktabelle und definieren Sie den Spaltennamen in der Ansicht neu. Beispiel:

create view view1 as select column1$ as column1, column2# as column2 ... from table

Wenn Sie dann den Asset-Browser verwenden, suchen Sie die Ansicht und fügen Sie sie zum DataStage-Ablauf hinzu.

Falsche Ableitungen, die einem vom Asset-Browser gelesenen Schema zugewiesen wurden

Der Asset-Browser liest die ersten 1000 Datensätze und leitet das Schema ab, z. B. Spaltenname, Länge, Datentyp und nullfähig, basierend auf diesen ersten 1000 Datensätzen in den Dateien in IBM Cloud Object Storage, Amazon S3, Google Cloud Storage, Azure File Storage, Azure Blob Storage oder dem Azure Data Lake-Service. Beispiel: Der Asset-Browser kann eine Spalte als ganze Zahl angeben, basierend auf dem, was in den ersten 1000 Datensätzen erkannt wird. Spätere Datensätze in der Datei zeigen jedoch möglicherweise, dass diese Spalte als varchar -Datentyp behandelt werden sollte. In ähnlicher Weise kann der Asset-Browser eine Spalte als varchar(20) ableiten, obwohl spätere Datensätze zeigen, dass die Spalte varchar(100) sein sollte.

Problemumgehung:
  • Erstellen Sie ein Profil der Quellendaten, um bessere Metadaten zu generieren.
  • Ändern Sie alle Spalten in varchar(1024) und grenzen Sie den Datentyp schrittweise ein.
Sequenzielle Dateien als Quelle verwenden
Wenn Sie sequenzielle Dateien als Quelle verwenden möchten, müssen Sie Dateien an einer bestimmten Position in ein Projektbucket laden. So bestimmen Sie die Position für das Projektbucket:
  1. Suchen Sie die Cloud Object Storage-Instanz des Projekts.
  2. Suchen Sie in der Projektinstanz nach dem Bucket, das dem aktuellen Projekt entspricht. Die Position lautet in der Regel: <lowercase-project-name>-donotdelete-<random-string>

    Beispiel: project2021mar01-donotdelete-pr-ifpkjcbk71s36j

    Laden Sie anschließend die Dateien in hoch, indem Sie DataStage/files/ im Feld Präfix für Objekt angeben.

Fehler beim Ausführen von Jobs mit einem Dateiformat 'Parquet'
Möglicherweise erhalten Sie den folgenden Fehler, wenn Sie versuchen, einen Job mit einem Parquet-Dateiformat auszuführen:
Error: CDICO9999E: Internal error occurred: Illegal 
state error: INTEGER(32,false) can only annotate INT32.
Die Datentypen für 32-Bit-Integer ohne Vorzeichen (uint32) und 64-Bit-Integer ohne Vorzeichen (uint64) werden im Parquet-Format, das DataStage für alle Dateiconnectors verwendet, nicht unterstützt.

Abhilfe: Sie müssen unterstützte Datentypen verwenden.

Migrations-Pod wird bereinigt, weil er seine ephemeren Speichergrenzwerte überschreitet
Während des Imports kann die Nutzung des ephemeren lokalen Speichers durch den Pod das Gesamtlimit der Container überschreiten. Sie empfangen möglicherweise die folgende Nachricht:

Status: Failed
Reason: Evicted
Message: Pod ephemeral local storage usage exceeds the total limit of containers 900Mi.
Problemumgehung: Um dieses Problem zu vermeiden, müssen Sie den Grenzwert für ephemeren Speicher auf 4Gi vom Standardwert 900Mi erhöhen, indem Sie den folgenden Befehl ausführen:

oc -n ${PROJECT_CPD_INST_OPERANDS} patch datastage datastage --type merge -p '{"spec": {"custom": {"resources":{"components":{"migration":{"limits":{"ephemeral":"4Gi"}}}}}}}'
Während des Upgrades der Cloud Pak for Data Version von 5.0.0 auf 5.0.1 tritt ein Fehler auf

Dieser Fehler kann auftreten, wenn Sie das Upgrade von Cloud Pak for Data von 5.0.0 auf 5.0.1 durchführen. Das Upgrade schlägt bei neuen Upgrade-Aufgaben für die Remote-Instanzen fehl.

Abhilfe: Wenn die DataStage CR während des 5.0.1-Upgrades zwischen Failed und InProgress wechselt, führen Sie die folgenden Schritte durch:
  1. Melden Sie sich beim Red Hat® OpenShift Container Platform Cluster mit oc an und setzen Sie den Standardprojektpfad auf den Ort, an dem das Cloud Pak for Data installiert ist.
    oc project $PROJECT_CPD_INST_OPERANDS
  2. Überprüfen Sie, ob die PXRruntime-Instanzen erfolgreich auf Version 5.0.1 aktualisiert wurden.
    oc get pxruntime
  3. Wenn die PXRruntime CR nicht erfolgreich auf die Version 5.0.1 aktualisiert wurde, führen Sie die folgenden Befehle aus:
    
    echo "Adding installedVersion to DataStage CR"
    oc patch datastage datastage --type='json' -p='[{"op": "add", "path": "/spec/installedVersion", "value": "5.0.1" }]'
    while true; do echo "Waiting for DataStage CR to be in Completed state"; sleep 30; if [ $(oc get datastage datastage -o=jsonpath="{.status.dsStatus}") = "Completed" ]; then break; fi; done
    echo "Removing installedVersion from DataStage CR"
    oc patch datastage datastage --type='json' -p='[{"op": "remove", "path": "/spec/installedVersion"}]'
    while true; do echo "Waiting for DataStage CR to be in Completed state"; sleep 30; if [ $(oc get datastage datastage -o=jsonpath="{.status.dsStatus}") = "Completed" ]; then break; fi; done
Abläufe, die die Transformer-Stufe enthalten, werden während der Kompilierung unterbrochen

Beim Kompilieren von Abläufen, die die Transformatorstufe enthalten, kann eine Zeitüberschreitung auftreten.

Standardwert der Umgebungsvariablen " APT_COMPILEOPT:
-c -O -fPIC -Wno-deprecated -m64 -mtune=generic -mcmodel=small
Umgehung: Deaktivieren Sie die Kompilierzeitoptimierung, indem Sie in den Kompilieroptionen in der Umgebungsvariablen " APT_COMPILEOPT " -O in " -O0 " ändern:
-c -O0 -fPIC -Wno-deprecated -m64 -mtune=generic -mcmodel=small

Connectors

Connector Netezza : Doppelte Datensätze treten auf, wenn partitionierte Lesevorgänge aktiviert sind

Wenn partitionierte Lesevorgänge auf dem Netezza-Konnektor im parallelen Ausführungsmodus aktiviert sind, können doppelte Datensätze auftreten. Um doppelte Datensätze zu vermeiden, fügen Sie der SQL Partitionsplatzhalter hinzu oder setzen Sie den Ausführungsmodus auf "sequenziell". Fügen Sie zum Hinzufügen von Partitions-Platzhaltern die Zeichenfolge mod(datasliceid,[[node-count]])=[[node-number]]hinzu, wie im folgenden Beispiel.
SELECT * FROM table WHERE mod(datasliceid,[[node-count]])=[[node-number]]
MySQL -Connector: Jobs schlagen möglicherweise fehl, wenn Sie den Schreibmodus "Update" für das Ziel ohne Primärschlüssel verwenden

Wenn Sie eine Tabelle in einer MySQL -Datenbank erstellen, ohne einen Primärschlüssel in der Spalte WHERE anzugeben, und dann versuchen, einen Job auszuführen, der diese Tabelle mit dem Schreibmodus Update für das Ziel verwendet, kann der Job fehlschlagen.

Lösung: Geben Sie im Feld Schlüsselspaltennamen einen Primärschlüsselnamen an. Wenn die Tabelle groß ist und keine Primärspalte hat, können Sie eine separate Spalte mit Werten für die automatische Erhöhung erstellen, die als Primärschlüssel verwendet wird.

FTP-Connector: Der Pfad des Ausgangsverzeichnisses wird dem Pfad vorangestellt.

Wenn Sie einen Job ausführen, der Daten aus einer FTP-Datenquelle verwendet, wird das Ausgangsverzeichnis oder das Anmeldeverzeichnis dem angegebenen Pfad vorangestellt. Diese Aktion erfolgt unabhängig davon, ob Sie einen absoluten Pfad (mit einem führenden Schrägstrich) oder einen relativen Pfad (ohne führenden Schrägstrich) angeben. Wenn Sie beispielsweise das Verzeichnis als /tmp/SampleData.txtangeben, wird der Pfad in /home/username/tmp/SampleData.txtaufgelöst.

Problemumgehung:Bearbeiten Sie den Dateinamen im FTP-Connector. Geben Sie den absoluten Pfad zur Quellen-oder Zieldatei an.

Jobs schlagen mit dem Fehler "Der Connector konnte keine Verbindung zur Db2 -Datenbank herstellen" fehl

Jobs können mit dem Fehler "Der Connector konnte keine Verbindung zur Db2 -Datenbank herstellen" fehlschlagen.

Problemumgehung: Rufen Sie die Verbindungseigenschaften auf und legen Sie die Eigenschaft Optionen auf connectTimeout=0fest.

Job mit Quellendaten aus einem SAP OData -Connector schlägt fehl

Wenn Ihr Flow Quellendaten aus SAP ODataenthält, schlägt der Flow möglicherweise fehl, wenn Sie den Flow durch manuelles Hinzufügen von Spalten erstellt haben, die nicht der SAP -Namenskonvention entsprechen.

Problemumgehung:Aktualisieren Sie den Ablauf, indem Sie die Spalten im Asset-Browser hinzufügen oder die Spalten entsprechend der SAP -Namenskonvention umbenennen. Die SAP -Namenskonvention folgt der SAP -Objekthierarchie mit zwei Unterstreichungszeichen (__) als Trennzeichen. Wenn zum Beispiel die Spalte PurchaseOrder zu KaufBestellNote gehört, dann sollte der Spaltenname als PurchaseOrderNote__PurchaseOrder angegeben werden.

Transaktionsorientierte SQL kann nicht für Daten aus Apache Hive Version 2.0 oder früher ausgeführt werden

Wenn Ihre Daten aus Apache Hive Version 2.0 oder früher stammen und Ihr DataStage -Flow UPDATE-oder DELETE-Anweisungen ausführt, schlägt der Job möglicherweise fehl. Stellen Sie sicher, dass die Zieltabelle gemäß den Hive -Transaktionsanforderungen erstellt wurde und dass der Apache Hive -Server für die Unterstützung von ACID-Operationen konfiguriert ist.

Die Mindestgruppe von Parametern (in der Datei hive-site.xml konfiguriert), die Sie für ACID-Tabellen in Apache Hive aktivieren müssen, ist:

hive.support.concurrency = true
hive.enforce.bucketing = true (not required as of Hive 2.0)
hive.exec.dynamic.partition.mode = nonstrict
hive.txn.manager = org.apache.hadoop.hive.ql.lockmgr.DbTxnManager

hive.compactor.initiator.on = true
hive.compactor.worker.threads = <a positive number>

Weitere Informationen finden Sie unter Hive Transaktionen.

IBM Db2 for DataStage -Verbindung mit SSL-Zertifikat schlägt mit Fehler "Protokollspezifischer Fehlercode 414" fehl

Wenn Sie ein SSL-Zertifikat in der Verbindung zu IBM Db2 for DataStage verwenden und die Verbindung mit dem Fehler "Protokollspezifischer Fehlercode 414" fehlschlägt, verwenden Sie die folgende Problemumgehung:

  1. Ermitteln Sie das Stammzertifikat auf dem Db2 -Server. Mit diesem Befehl können Sie die Zertifikatskette anzeigen:
    openssl s_client -connect <hostname>:<port> -showcerts
  2. Stellen Sie sicher, dass das Zertifikat dasselbe Subjekt und denselben Aussteller hat.
  3. Geben Sie auf der Seite Verbindung erstellen: IBM IBM Db2 für DataStage das Stammzertifikat in das Feld SSL-Zertifikat (arm) ein.
Fehler bei der Parametrisierung des Berechtigungsfelds für eine Flussverbindung in IBM Cloud Object Storage

Wenn die Eigenschaft Authentifizierungsmethode auf Serviceberechtigungsnachweise (vollständiges JSON-Snippet) gesetzt ist, dürfen Sie das Feld Serviceberechtigungsnachweise nicht parametrisieren. Wenn für dieses Feld ein Parameter angegeben wird, wird der Fluss nicht kompiliert.

PostgreSQL -Connector überschreitet das Zeitlimit für große Tabellen

Der PostgreSQL verbindung kann mit einem Timeout-Fehler fehlschlagen, wenn eine große Tabelle (über 100.000 Zeilen) als Quelle verwendet wird. Versuchen Sie, einen höheren Zeitlimitwert für die Umgebungsvariable APT_RECORD_TIMEOUT festzulegen, um diesen Fehler zu beheben. Siehe Verwalten von Umgebungsvariablen in DataStage.

Schemaänderungen, die in Daten aus dem HTTP vorgenommen werden, können zum Scheitern des Auftrags führen

Wenn Sie den HTTP verwenden, um eine Datei herunterzuladen und dann dieselbe Datei in IBM Cloud Object Storage oder eine Datenbank hochzuladen, kann der Auftrag fehlschlagen, wenn sich das Schema der Datei im Laufe der Zeit ändert.

Problemumgehung: Erstellen Sie die Phase erneut.

Datenbankverbindung mit SSL-Zertifikat kann nicht erfolgreich erstellt werden

In der Version OpenSSL 3.0.9 können bei der Erstellung des SSL-Zertifikats keine schwachen Chiffren verwendet werden. Wenn das Attribut ValidateServerCertificate (VSC) auf " 0 gesetzt ist, behandelt die Verbindung das Zertifikat als ungültig. Der Wert muss auf " 1 gesetzt werden, um eine Verbindung herzustellen.

Umgehung: Generieren Sie ein neues SSL-Zertifikat mit starken Chiffren unter Verwendung der Version OpenSSL 3.0.x.
  1. Überprüfen Sie die Chiffren in Ihrem SSL-Zertifikat mit dem folgenden Befehl. Verwendet das Zertifikat den Signaturalgorithmus " sha1WithRSAEncryption, wird es als schwache Chiffre betrachtet:
    openssl x509 -in cert.pem -text -noout
  2. Erzeugen Sie das SSL-Zertifikat mit dem folgenden Befehl:
    openssl.exe pkcs12 -in certificate_name -export -out truststore_filename -nokeys -keypbe cryptographic_algorithm -certpbe cryptographic_algorithm -password pass:truststore_password -nomac
Snowflake verbinder: Aufträge scheitern mit "java/lang/OutOfMemoryError" Fehler
Das Protokoll zeigt die folgende Fehlermeldung an:
java/lang/OutOfMemoryError", exception "Failed to create a thread: retVal -1073741830, errno 11"

Umgehung : Erhöhen Sie die Heap-Größe auf der Registerkarte Output oder Input für Ihren Snowflake Connector.

Snowflake verbinder: Aufträge scheitern mit "Fork failed: Resource temporarily unavailable" Fehler
Das Protokoll zeigt die folgenden Fehlernachrichten an:
<SCLoadAudIdLd.sf_write__JOB_EXECUTION_LOG__Ins,1> Error: Unable to create iprofiler thread11/6/2024 06:13:03 WARNING IIS-DSEE-USBP-00002 <Sf_STG_VEH_ALFA,0> Error: Unable to create iprofiler thread
und
WARNING IIS-DSEE-USBP-00002 <sc_AFT_COST_CENTRE_CD.sf_write__AUTO_FINANCE_TYPE__Ins,1>
Type=Segmentation error vmState=0x00000000
WARNING IIS-DSEE-USBP-00002 <sc_AFT_COST_CENTRE_CD.sf_write__AUTO_FINANCE_TYPE__Ins,1> J9Generic_Signal_Number=00000018 Signal_Number=0000000b Error_Value=00000000 Signal_Code=00000001

Umgehung : Erhöhen Sie die PID-Grenzwerte innerhalb des Clusters OpenShift. Stellen Sie podsPIDLimit auf 16,384 ein, was ein Höchstwert für PID-Grenzwerte ist. Informationen zur Erhöhung der PID-Grenzwerte finden Sie unter Red Hat Kundenportal.

Laufzeit

Problem aufgrund abnormaler Speicherbedingungen für den DataStage -Operator

Wenn mehr als 5 PX-Laufzeitinstanzen auf dem Cluster bereitgestellt werden, kann der Operator über zu wenig Speicher verfügen. Um dieses Problem zu beheben, aktualisieren Sie die CSV, um die Speicherbegrenzungen zu erhöhen:

Rufen Sie die DataStage CSV ab:

oc -n ${PROJECT_CPD_INST_OPERATORS} oc get csv | grep datastage
Patch der DataStage CSV, um den Operatorspeicher von 1Gi auf 2Gi: zu erhöhen



oc -n ${PROJECT_CPD_INST_OPERATORS} patch csv <DataStage-CSV-name> --type='json' -p='[{"op": "replace", "path": "/spec/install/spec/deployments/0/spec/template/spec/containers/0/resources/limits/memory", "value": "2Gi" }]'
Jobs in der Warteschlange, wenn Compute Pods nicht starten

Wenn die Laufzeitinstanz-Compute-Pods nicht gestartet werden, werden alle Aufträge auf dem px-Runtime-Pod ausgeführt. Ressourcenbeschränkungen führen dazu, dass Aufträge in eine Warteschlange gestellt werden.

Abhilfe: Beheben Sie alle Probleme, die den Start der Compute Pods verhindern.

Jobwarteschlange

Wenn Sie einen Auftrag übermitteln, wird er möglicherweise nicht sofort ausgeführt. Stattdessen erhält sie einen Status in der Warteschlange. Auf diese Weise verwaltet das System Ressourcen und setzt Prioritäten bei der Arbeit.

Warum steht Ihr Auftrag in der Warteschlange?
Grund Beschreibung
Begrenzte Ressourcen Ihr Auftrag wartet darauf, dass die erforderlichen Ressourcen (CPU, GPU, Speicher) verfügbar werden. Das passiert, wenn:
  • Andere Aufträge nutzen die gesamte verfügbare Kapazität.
  • Ihre Arbeit erfordert mehr Ressourcen als derzeit frei sind.
Grenzen der Gleichzeitigkeit Bei einigen Systemen ist die Anzahl der gleichzeitig laufenden Aufträge begrenzt. Ihr Auftrag steht in der Warteschlange, bis andere Aufträge beendet sind.
Prioritäten und Zeitplanung Aufträge mit niedrigerer Priorität können in eine Warteschlange gestellt werden, während Aufträge mit höherer Priorität zuerst ausgeführt werden.
Wartung oder Ausfallzeit Das System kann gewartet oder aktualisiert werden, wodurch die verfügbare Kapazität verringert oder die Auftragsausführung unterbrochen wird.
Rückstand in der Warteschlange Bei hohem Verkehrsaufkommen oder einer großen Anzahl von eingereichten Aufträgen kann es zu einem Rückstau kommen. Die Aufträge beginnen, wenn die früheren Aufträge abgeschlossen sind.

Lösung: Der DataStage Workload Manager (WLM) wird mit einer Standardkonfiguration ausgeliefert, die die gleichzeitige Ausführung von 5 Aufträgen ermöglicht. Wenn Sie mehr Ressourcen haben, sollten Sie pxruntime auf eine größere Instanz skalieren. Weitere Informationen finden Sie unter Anpassen von Hardwarekonfigurationen für DataStage Service-Instanzen mit der BefehlszeileAnpassen von Hardwarekonfigurationen für Service-Instanzen mit der Befehlszeile DataStage. Nach der Änderung der Skalierungskonfiguration ist es wichtig, die WLM-Konfigurationsdatei zu aktualisieren, damit mehr Aufträge gleichzeitig ausgeführt werden können. Wenn Sie also einen weiteren gleichzeitigen Auftrag ausführen möchten, müssen Sie die Einstellungen von RunJob in der XML-Datei anpassen.

Jobs bleiben hängen, nicht vorhandene Jobs werden im Status "Startend/Läuft" angezeigt
Wenn Ihre veralteten Aufträge ausgeführt werden, kann es zu Problemen beim Löschen aus der Benutzeroberfläche kommen. Ein ähnliches Problem können Sie mit den Projekten haben, da diese möglicherweise Ressourcen (z. B. Arbeitsspeicher) verbrauchen können. Um diese Prozesse zu bereinigen, verwenden Sie einen der folgenden Befehle:
cpdctl asset delete --asset-id ASSET-ID --purge-on-delete=true`
cpdctl dsjob jobrunclean {{--project PROJECT | --project-id PROJID} | {--space SPACE | --space-id SPACEID}} {--name NAME | --id ID} [--run-id RUNID] [--dry-run] [--threads n] [--all-spaces] [--before YYYY-MM-DD:hh:mm:ss]
Hinweis: Mit diesen Befehlen werden alle aktiven Aufträge in einem Projekt gelöscht. Stellen Sie sicher, dass keine neuen Aufträge mehr ausgeführt werden.