Fehlerbehebung für IBM DataStage
Verwenden Sie diese Lösungen, um Probleme zu beheben, die bei IBM® DataStage®auftreten können.
Hilfe und Unterstützung für DataStage anfordern
Wenn Sie Probleme oder Fragen bei der Verwendung von DataStage haben, können Sie Hilfe erhalten, indem Sie nach Informationen suchen oder in einem Forum Fragen stellen. Sie können auch ein Support-Ticket öffnen.
Wenn Sie eine Frage in den Foren stellen, kennzeichnen Sie Ihre Frage so, dass sie von den DataStage -Entwicklungsteams gesehen wird.
Bei Fragen zum Service und zu einführenden Anweisungen verwenden Sie das Forum unter https://stackoverflow.com/questions/tagged/datastage.
Wenn Sie das Problem trotzdem nicht lösen können, können Sie ein IBM Support-Ticket öffnen. Informationen zum Öffnen eines IBM Support-Tickets oder zu Support-Levels finden Sie unter https://cloud.ibm.com/unifiedsupport/supportcenter.
- Allgemein
- Jobs schlagen fehl, da SQL-Anweisungen und Vorbereitungs-SQL-Anweisungen in falscher Reihenfolge ausgeführt werden
- Der Befehl mailx kann nicht in Vorjob-und Nachjobsubroutinen ohne SMTP-Serverinformationen ausgeführt werden
- Die Auswahl der Eigenschaften bleibt nicht erhalten, wenn Sie die Option "DataStage Eigenschaften verwenden" deaktivieren
- Routine schlägt fehl, wenn die CEL-Funktion ds.getUserStatus für einen externen Ablauf ausgeführt wird
- Job schlägt beim Laden einer großen Excel-Datei fehl
- Exportierte Abläufe erzeugen JSON-Verbindungsdateien, die Klartextpasswörter enthalten
- Probleme beim Durchsuchen von Datenbanktabellen mit Spalten, die Sonderzeichen enthalten
- Falsche Ableitungen, die einem vom Asset-Browser gelesenen Schema zugewiesen wurden
- Sequenzielle Dateien als Quelle verwenden
- Fehler beim Ausführen von Jobs mit einem Dateiformat 'Parquet'
- Migrations-Pod wird wegen Überschreitung seiner ephemeren Speichergrenzwerte bereinigt
- Fehler beim Upgrade der Cloud Pak for Data von 5.0.0 auf 5.0.1 Version
- Die Kompilierung eines Flusses, der die Transformatorstufe enthält, ist zeitlich abgelaufen
- Connectors
- Netezza® Anschluss: Doppelte Datensätze treten auf, wenn partitionierte Lesevorgänge aktiviert sind
- MySQL connector: Aufträge können fehlschlagen, wenn Sie den Schreibmodus "Update" für das Ziel ohne Primärschlüssel verwenden
- FTP-Connector: Dem Pfad des Ausgangsverzeichnisses wird der Pfad vorangestellt
- Aufträge scheitern mit der Fehlermeldung "Der Connector konnte keine Verbindung zur Db2® Datenbank herstellen"
- Job mit Quelldaten von einem SAP OData Connector schlägt fehl
- Kann kein transaktionales SQL auf Daten von Apache Hive Version 2.0 oder früher ausführen
- IBM Db2 für DataStage Verbindung mit SSL-Zertifikat schlägt mit Fehler "Protokollspezifischer Fehlercode 414" fehl
- Fehler bei der Parametrisierung des Berechtigungsfelds für eine Flussverbindung in IBM Cloud® Object Storage
- PostgreSQL Konnektor stürzt bei großen Tabellen ab
- Schemaänderungen, die in Daten aus dem HTTP vorgenommen werden, können zum Scheitern des Auftrags führen
- Datenbankverbindung mit SSL-Zertifikat kann nicht erfolgreich erstellt werden
- Snowflake verbinder: Aufträge scheitern mit "java/lang/OutOfMemoryError" Fehler
- Snowflake verbinder: Aufträge scheitern mit "Fork failed: Resource temporarily unavailable" Fehler
Allgemein
- Jobs schlagen fehl, da SQL-und Vorbereitungs-SQL-Anweisungen in falscher Reihenfolge ausgeführt werden
Im Teradata -Connector, der auf den ANSI-Transaktionsmodus gesetzt ist, kann die Vorbereitungs-SQL-Anweisung nach der SQL-Anweisung statt vor ausgeführt werden, wodurch der Job fehlschlägt.
Problemumgehung:Fügen Sie nach jeder Vorbereitungs-SQL-Anweisung eine Commitanweisung hinzu.
- Der Befehl mailx kann nicht in Vorjob-und Nachjobsubroutinen ohne SMTP-Serverinformationen ausgeführt werden
Wenn der Befehl
mailx
in einer Vorjob-oder Nachjobsubroutine verwendet wird, müssen Sie die SMTP-Serverinformationen angeben. Andernfalls wird die Ausführung ansendmail
weitergeleitet und schlägt fehl.
- Eigenschaftenauswahlen werden nicht beibehalten, wenn Sie die Option " DataStage -Eigenschaften verwenden" abwählen
Wenn Sie andere Eigenschaften eingeben (z. B. für Tabellen oder Schemata) und die Standardoption DataStage -Eigenschaften verwenden ausgewählt ist und dann die Option DataStage -Eigenschaften verwendenabwählen, werden die Eigenschaften nicht beibehalten.
Problemumgehung: Wählen Sie die Standardeigenschaften DataStage verwenden ab, wenn Sie sie nicht verwenden möchten, bevor Sie andere Eigenschaften eingeben. Wählen Sie andernfalls die Eigenschaften erneut aus.
- Routine schlägt fehl, wenn die CEL-Funktion ds.getUserStatus in einem externen Ablauf ausgeführt wird
Wenn die integrierte CEL-Funktion
ds.getUserStatus
auf einem Ziel ausgeführt wird, das sich nicht in derselben Pipeline befindet, schlägt sie fehl und kann den Benutzerstatus nicht abrufen. Verwenden Sie stattdessen diedsjob
-CLI in Ihrem Knoten "Run Bash script".Ein Beispiel dafür, wie dies umgeschrieben werden kann, finden Sie unter dem Befehl
dsjob
, der vonDSGetUserStatus()
verwendet wird, in den Beispielen für die Ersetzung von Routinen unter DataStage.
- Job schlägt beim Laden einer großen Excel-Datei fehl
Ein Job mit einem Connector, der eine große Excel-Datei verarbeitet, kann mit folgendem Fehler fehlschlagen:
"CDICO9999E: Internal error occurred: IO error: The Excel file is too large. (error code: DATA_IO_ERROR)"
Versuchen Sie, die Größe des Heapspeichers zu erhöhen. Die Eigenschaftsoption für die Größe des Heapspeichers befindet sich im Abschnitt Weitere Eigenschaften der Registerkarte Stage des Connectors.
- Exportierte Abläufe generieren JSON-Verbindungsdateien, die Klartextkennwörter enthalten
- Heruntergeladene Datenflüsse können Verbindungsassets mit Berechtigungsnachweisen oder anderen sensiblen Informationen enthalten. Sie können den folgenden Befehl ausführen, um das Exportverhalten so zu ändern, dass alle zukünftigen Exporte Berechtigungsnachweise standardmäßig entfernen.
oc -n ${PROJECT_CPD_INST_OPERANDS} patch datastage datastage --patch '{"spec":{"migration_export_remove_secrets":true}}' --type=merge
- Probleme beim Durchsuchen von Datenbanktabellen mit Spalten, die Sonderzeichen enthalten
Bei der Verwendung des Asset-Browsers zum Durchsuchen von Datenbanktabellen können Probleme auftreten, wenn die ausgewählte Tabelle eine Spalte mit Sonderzeichen wie ., $oder #enthält und Sie diese Tabelle einem DataStage -Ablauf hinzufügen. DataStage unterstützt keine Spaltennamen, die Sonderzeichen enthalten. DataStage -Abläufe, die auf Spalten mit Namen verweisen, die diese Sonderzeichen enthalten, funktionieren nicht.
Um dieses Problem zu umgehen, erstellen Sie eine Sicht für die Datenbanktabelle und definieren Sie den Spaltennamen in der Ansicht neu. Beispiel:
create view view1 as select column1$ as column1, column2# as column2 ... from table
Wenn Sie dann den Asset-Browser verwenden, suchen Sie die Ansicht und fügen Sie sie zum DataStage-Ablauf hinzu.
- Falsche Ableitungen, die einem vom Asset-Browser gelesenen Schema zugewiesen wurden
Der Asset-Browser liest die ersten 1000 Datensätze und leitet das Schema ab, z. B. Spaltenname, Länge, Datentyp und nullfähig, basierend auf diesen ersten 1000 Datensätzen in den Dateien in IBM Cloud Object Storage, Amazon S3, Google Cloud Storage, Azure File Storage, Azure Blob Storage oder dem Azure Data Lake-Service. Beispiel: Der Asset-Browser kann eine Spalte als ganze Zahl angeben, basierend auf dem, was in den ersten 1000 Datensätzen erkannt wird. Spätere Datensätze in der Datei zeigen jedoch möglicherweise, dass diese Spalte als varchar -Datentyp behandelt werden sollte. In ähnlicher Weise kann der Asset-Browser eine Spalte als varchar(20) ableiten, obwohl spätere Datensätze zeigen, dass die Spalte varchar(100) sein sollte.
Problemumgehung:- Erstellen Sie ein Profil der Quellendaten, um bessere Metadaten zu generieren.
- Ändern Sie alle Spalten in varchar(1024) und grenzen Sie den Datentyp schrittweise ein.
- Sequenzielle Dateien als Quelle verwenden
- Wenn Sie sequenzielle Dateien als Quelle verwenden möchten, müssen Sie Dateien an einer bestimmten Position in ein Projektbucket laden. So bestimmen Sie die Position für das Projektbucket:
- Suchen Sie die Cloud Object Storage-Instanz des Projekts.
- Suchen Sie in der Projektinstanz nach dem Bucket, das dem aktuellen Projekt entspricht. Die Position lautet in der Regel:
<lowercase-project-name>-donotdelete-<random-string>
Beispiel:
project2021mar01-donotdelete-pr-ifpkjcbk71s36j
Laden Sie anschließend die Dateien in hoch, indem Sie
DataStage/files/
im Feld Präfix für Objekt angeben.
- Fehler beim Ausführen von Jobs mit einem Dateiformat 'Parquet'
- Möglicherweise erhalten Sie den folgenden Fehler, wenn Sie versuchen, einen Job mit einem Parquet-Dateiformat auszuführen:
Die Datentypen für 32-Bit-Integer ohne Vorzeichen (uint32) und 64-Bit-Integer ohne Vorzeichen (uint64) werden im Parquet-Format, das DataStage für alle Dateiconnectors verwendet, nicht unterstützt.Error: CDICO9999E: Internal error occurred: Illegal state error: INTEGER(32,false) can only annotate INT32.
Abhilfe: Sie müssen unterstützte Datentypen verwenden.
- Migrations-Pod wird bereinigt, weil er seine ephemeren Speichergrenzwerte überschreitet
- Während des Imports kann die Nutzung des ephemeren lokalen Speichers durch den Pod das Gesamtlimit der Container überschreiten. Sie empfangen möglicherweise die folgende Nachricht:
Problemumgehung: Um dieses Problem zu vermeiden, müssen Sie den Grenzwert für ephemeren Speicher auf 4Gi vom Standardwert 900Mi erhöhen, indem Sie den folgenden Befehl ausführen:Status: Failed Reason: Evicted Message: Pod ephemeral local storage usage exceeds the total limit of containers 900Mi.
oc -n ${PROJECT_CPD_INST_OPERANDS} patch datastage datastage --type merge -p '{"spec": {"custom": {"resources":{"components":{"migration":{"limits":{"ephemeral":"4Gi"}}}}}}}'
- Während des Upgrades der Cloud Pak for Data Version von 5.0.0 auf 5.0.1 tritt ein Fehler auf
Dieser Fehler kann auftreten, wenn Sie das Upgrade von Cloud Pak for Data von 5.0.0 auf 5.0.1 durchführen. Das Upgrade schlägt bei neuen Upgrade-Aufgaben für die Remote-Instanzen fehl.
Abhilfe: Wenn die DataStage CR während des 5.0.1-Upgrades zwischen Failed und InProgress wechselt, führen Sie die folgenden Schritte durch:- Melden Sie sich beim Red Hat® OpenShift Container Platform Cluster mit
oc
an und setzen Sie den Standardprojektpfad auf den Ort, an dem das Cloud Pak for Data installiert ist.oc project $PROJECT_CPD_INST_OPERANDS
- Überprüfen Sie, ob die PXRruntime-Instanzen erfolgreich auf Version 5.0.1 aktualisiert wurden.
oc get pxruntime
- Wenn die PXRruntime CR nicht erfolgreich auf die Version 5.0.1 aktualisiert wurde, führen Sie die folgenden Befehle aus:
echo "Adding installedVersion to DataStage CR" oc patch datastage datastage --type='json' -p='[{"op": "add", "path": "/spec/installedVersion", "value": "5.0.1" }]' while true; do echo "Waiting for DataStage CR to be in Completed state"; sleep 30; if [ $(oc get datastage datastage -o=jsonpath="{.status.dsStatus}") = "Completed" ]; then break; fi; done echo "Removing installedVersion from DataStage CR" oc patch datastage datastage --type='json' -p='[{"op": "remove", "path": "/spec/installedVersion"}]' while true; do echo "Waiting for DataStage CR to be in Completed state"; sleep 30; if [ $(oc get datastage datastage -o=jsonpath="{.status.dsStatus}") = "Completed" ]; then break; fi; done
- Melden Sie sich beim Red Hat® OpenShift Container Platform Cluster mit
- Abläufe, die die Transformer-Stufe enthalten, werden während der Kompilierung unterbrochen
Beim Kompilieren von Abläufen, die die Transformatorstufe enthalten, kann eine Zeitüberschreitung auftreten.
Standardwert der Umgebungsvariablen "APT_COMPILEOPT
:-c -O -fPIC -Wno-deprecated -m64 -mtune=generic -mcmodel=small
Umgehung: Deaktivieren Sie die Kompilierzeitoptimierung, indem Sie in den Kompilieroptionen in der Umgebungsvariablen "APT_COMPILEOPT
"-O
in "-O0
" ändern:-c -O0 -fPIC -Wno-deprecated -m64 -mtune=generic -mcmodel=small
Connectors
- Connector Netezza : Doppelte Datensätze treten auf, wenn partitionierte Lesevorgänge aktiviert sind
-
Wenn partitionierte Lesevorgänge auf dem Netezza-Konnektor im parallelen Ausführungsmodus aktiviert sind, können doppelte Datensätze auftreten. Um doppelte Datensätze zu vermeiden, fügen Sie der SQL Partitionsplatzhalter hinzu oder setzen Sie den Ausführungsmodus auf "sequenziell". Fügen Sie zum Hinzufügen von Partitions-Platzhaltern die Zeichenfolge
mod(datasliceid,[[node-count]])=[[node-number]]
hinzu, wie im folgenden Beispiel.SELECT * FROM table WHERE mod(datasliceid,[[node-count]])=[[node-number]]
- MySQL -Connector: Jobs schlagen möglicherweise fehl, wenn Sie den Schreibmodus "Update" für das Ziel ohne Primärschlüssel verwenden
Wenn Sie eine Tabelle in einer MySQL -Datenbank erstellen, ohne einen Primärschlüssel in der Spalte WHERE anzugeben, und dann versuchen, einen Job auszuführen, der diese Tabelle mit dem Schreibmodus Update für das Ziel verwendet, kann der Job fehlschlagen.
Lösung: Geben Sie im Feld Schlüsselspaltennamen einen Primärschlüsselnamen an. Wenn die Tabelle groß ist und keine Primärspalte hat, können Sie eine separate Spalte mit Werten für die automatische Erhöhung erstellen, die als Primärschlüssel verwendet wird.
- FTP-Connector: Der Pfad des Ausgangsverzeichnisses wird dem Pfad vorangestellt.
Wenn Sie einen Job ausführen, der Daten aus einer FTP-Datenquelle verwendet, wird das Ausgangsverzeichnis oder das Anmeldeverzeichnis dem angegebenen Pfad vorangestellt. Diese Aktion erfolgt unabhängig davon, ob Sie einen absoluten Pfad (mit einem führenden Schrägstrich) oder einen relativen Pfad (ohne führenden Schrägstrich) angeben. Wenn Sie beispielsweise das Verzeichnis als
/tmp/SampleData.txt
angeben, wird der Pfad in/home/username/tmp/SampleData.txt
aufgelöst.Problemumgehung:Bearbeiten Sie den Dateinamen im FTP-Connector. Geben Sie den absoluten Pfad zur Quellen-oder Zieldatei an.
- Jobs schlagen mit dem Fehler "Der Connector konnte keine Verbindung zur Db2 -Datenbank herstellen" fehl
Jobs können mit dem Fehler "Der Connector konnte keine Verbindung zur Db2 -Datenbank herstellen" fehlschlagen.
Problemumgehung: Rufen Sie die Verbindungseigenschaften auf und legen Sie die Eigenschaft Optionen auf
connectTimeout=0
fest.
- Job mit Quellendaten aus einem SAP OData -Connector schlägt fehl
Wenn Ihr Flow Quellendaten aus SAP ODataenthält, schlägt der Flow möglicherweise fehl, wenn Sie den Flow durch manuelles Hinzufügen von Spalten erstellt haben, die nicht der SAP -Namenskonvention entsprechen.
Problemumgehung:Aktualisieren Sie den Ablauf, indem Sie die Spalten im Asset-Browser hinzufügen oder die Spalten entsprechend der SAP -Namenskonvention umbenennen. Die SAP -Namenskonvention folgt der SAP -Objekthierarchie mit zwei Unterstreichungszeichen (
__
) als Trennzeichen. Wenn zum Beispiel die Spalte PurchaseOrder zu KaufBestellNote gehört, dann sollte der Spaltenname als PurchaseOrderNote__PurchaseOrder angegeben werden.
- Transaktionsorientierte SQL kann nicht für Daten aus Apache Hive Version 2.0 oder früher ausgeführt werden
Wenn Ihre Daten aus Apache Hive Version 2.0 oder früher stammen und Ihr DataStage -Flow UPDATE-oder DELETE-Anweisungen ausführt, schlägt der Job möglicherweise fehl. Stellen Sie sicher, dass die Zieltabelle gemäß den Hive -Transaktionsanforderungen erstellt wurde und dass der Apache Hive -Server für die Unterstützung von ACID-Operationen konfiguriert ist.
Die Mindestgruppe von Parametern (in der Datei hive-site.xml konfiguriert), die Sie für ACID-Tabellen in Apache Hive aktivieren müssen, ist:
hive.support.concurrency = true hive.enforce.bucketing = true (not required as of Hive 2.0) hive.exec.dynamic.partition.mode = nonstrict hive.txn.manager = org.apache.hadoop.hive.ql.lockmgr.DbTxnManager hive.compactor.initiator.on = true hive.compactor.worker.threads = <a positive number>
Weitere Informationen finden Sie unter Hive Transaktionen.
- IBM Db2 for DataStage -Verbindung mit SSL-Zertifikat schlägt mit Fehler "Protokollspezifischer Fehlercode 414" fehl
Wenn Sie ein SSL-Zertifikat in der Verbindung zu IBM Db2 for DataStage verwenden und die Verbindung mit dem Fehler "Protokollspezifischer Fehlercode 414" fehlschlägt, verwenden Sie die folgende Problemumgehung:
- Ermitteln Sie das Stammzertifikat auf dem Db2 -Server. Mit diesem Befehl können Sie die Zertifikatskette anzeigen:
openssl s_client -connect <hostname>:<port> -showcerts
- Stellen Sie sicher, dass das Zertifikat dasselbe Subjekt und denselben Aussteller hat.
- Geben Sie auf der Seite Verbindung erstellen: IBM IBM Db2 für DataStage das Stammzertifikat in das Feld SSL-Zertifikat (arm) ein.
- Ermitteln Sie das Stammzertifikat auf dem Db2 -Server. Mit diesem Befehl können Sie die Zertifikatskette anzeigen:
- Fehler bei der Parametrisierung des Berechtigungsfelds für eine Flussverbindung in IBM Cloud Object Storage
Wenn die Eigenschaft Authentifizierungsmethode auf Serviceberechtigungsnachweise (vollständiges JSON-Snippet) gesetzt ist, dürfen Sie das Feld Serviceberechtigungsnachweise nicht parametrisieren. Wenn für dieses Feld ein Parameter angegeben wird, wird der Fluss nicht kompiliert.
- PostgreSQL -Connector überschreitet das Zeitlimit für große Tabellen
Der PostgreSQL verbindung kann mit einem Timeout-Fehler fehlschlagen, wenn eine große Tabelle (über 100.000 Zeilen) als Quelle verwendet wird. Versuchen Sie, einen höheren Zeitlimitwert für die Umgebungsvariable APT_RECORD_TIMEOUT festzulegen, um diesen Fehler zu beheben. Siehe Verwalten von Umgebungsvariablen in DataStage.
- Schemaänderungen, die in Daten aus dem HTTP vorgenommen werden, können zum Scheitern des Auftrags führen
Wenn Sie den HTTP verwenden, um eine Datei herunterzuladen und dann dieselbe Datei in IBM Cloud Object Storage oder eine Datenbank hochzuladen, kann der Auftrag fehlschlagen, wenn sich das Schema der Datei im Laufe der Zeit ändert.
Problemumgehung: Erstellen Sie die Phase erneut.
- Datenbankverbindung mit SSL-Zertifikat kann nicht erfolgreich erstellt werden
- Snowflake verbinder: Aufträge scheitern mit "java/lang/OutOfMemoryError" Fehler
- Snowflake verbinder: Aufträge scheitern mit "Fork failed: Resource temporarily unavailable" Fehler
Laufzeit
- Problem aufgrund abnormaler Speicherbedingungen für den DataStage -Operator
Wenn mehr als 5 PX-Laufzeitinstanzen auf dem Cluster bereitgestellt werden, kann der Operator über zu wenig Speicher verfügen. Um dieses Problem zu beheben, aktualisieren Sie die CSV, um die Speicherbegrenzungen zu erhöhen:
Rufen Sie die DataStage CSV ab:oc -n ${PROJECT_CPD_INST_OPERATORS} oc get csv | grep datastage
Patch der DataStage CSV, um den Operatorspeicher von 1Gi auf 2Gi: zu erhöhenoc -n ${PROJECT_CPD_INST_OPERATORS} patch csv <DataStage-CSV-name> --type='json' -p='[{"op": "replace", "path": "/spec/install/spec/deployments/0/spec/template/spec/containers/0/resources/limits/memory", "value": "2Gi" }]'
- Jobs in der Warteschlange, wenn Compute Pods nicht starten
Wenn die Laufzeitinstanz-Compute-Pods nicht gestartet werden, werden alle Aufträge auf dem px-Runtime-Pod ausgeführt. Ressourcenbeschränkungen führen dazu, dass Aufträge in eine Warteschlange gestellt werden.
Abhilfe: Beheben Sie alle Probleme, die den Start der Compute Pods verhindern.
- Jobwarteschlange
Wenn Sie einen Auftrag übermitteln, wird er möglicherweise nicht sofort ausgeführt. Stattdessen erhält sie einen Status in der Warteschlange. Auf diese Weise verwaltet das System Ressourcen und setzt Prioritäten bei der Arbeit.
Warum steht Ihr Auftrag in der Warteschlange?Grund Beschreibung Begrenzte Ressourcen Ihr Auftrag wartet darauf, dass die erforderlichen Ressourcen (CPU, GPU, Speicher) verfügbar werden. Das passiert, wenn: - Andere Aufträge nutzen die gesamte verfügbare Kapazität.
- Ihre Arbeit erfordert mehr Ressourcen als derzeit frei sind.
Grenzen der Gleichzeitigkeit Bei einigen Systemen ist die Anzahl der gleichzeitig laufenden Aufträge begrenzt. Ihr Auftrag steht in der Warteschlange, bis andere Aufträge beendet sind. Prioritäten und Zeitplanung Aufträge mit niedrigerer Priorität können in eine Warteschlange gestellt werden, während Aufträge mit höherer Priorität zuerst ausgeführt werden. Wartung oder Ausfallzeit Das System kann gewartet oder aktualisiert werden, wodurch die verfügbare Kapazität verringert oder die Auftragsausführung unterbrochen wird. Rückstand in der Warteschlange Bei hohem Verkehrsaufkommen oder einer großen Anzahl von eingereichten Aufträgen kann es zu einem Rückstau kommen. Die Aufträge beginnen, wenn die früheren Aufträge abgeschlossen sind. Lösung: Der DataStage Workload Manager (WLM) wird mit einer Standardkonfiguration ausgeliefert, die die gleichzeitige Ausführung von 5 Aufträgen ermöglicht. Wenn Sie mehr Ressourcen haben, sollten Sie pxruntime auf eine größere Instanz skalieren. Weitere Informationen finden Sie unter Anpassen von Hardwarekonfigurationen für DataStage Service-Instanzen mit der BefehlszeileAnpassen von Hardwarekonfigurationen für Service-Instanzen mit der Befehlszeile DataStage. Nach der Änderung der Skalierungskonfiguration ist es wichtig, die WLM-Konfigurationsdatei zu aktualisieren, damit mehr Aufträge gleichzeitig ausgeführt werden können. Wenn Sie also einen weiteren gleichzeitigen Auftrag ausführen möchten, müssen Sie die Einstellungen von RunJob in der XML-Datei anpassen.
- Jobs bleiben hängen, nicht vorhandene Jobs werden im Status "Startend/Läuft" angezeigt
- Wenn Ihre veralteten Aufträge ausgeführt werden, kann es zu Problemen beim Löschen aus der Benutzeroberfläche kommen. Ein ähnliches Problem können Sie mit den Projekten haben, da diese möglicherweise Ressourcen (z. B. Arbeitsspeicher) verbrauchen können. Um diese Prozesse zu bereinigen, verwenden Sie einen der folgenden Befehle:
cpdctl asset delete --asset-id ASSET-ID --purge-on-delete=true`
cpdctl dsjob jobrunclean {{--project PROJECT | --project-id PROJID} | {--space SPACE | --space-id SPACEID}} {--name NAME | --id ID} [--run-id RUNID] [--dry-run] [--threads n] [--all-spaces] [--before YYYY-MM-DD:hh:mm:ss]
Hinweis: Mit diesen Befehlen werden alle aktiven Aufträge in einem Projekt gelöscht. Stellen Sie sicher, dass keine neuen Aufträge mehr ausgeführt werden.