0 / 0
Zurück zur englischen Version der Dokumentation
Pipelineknoten konfigurieren
Letzte Aktualisierung: 28. Nov. 2024
Pipelineknoten konfigurieren

Konfigurieren Sie die Knoten Ihrer Pipeline, um Eingaben anzugeben und Ausgaben als Teil Ihrer Pipeline zu erstellen.

Arbeitsbereichsbereich angeben

Standardmäßig ist der Geltungsbereich für eine Pipeline das Projekt, das die Pipeline enthält. Sie können explizit einen anderen als den Standardbereich angeben, um ein Asset zu lokalisieren, das in der Pipeline verwendet wird. Der Bereich ist das Projekt, der Katalog oder der Bereich, das bzw. der das Asset enthält. Sie können über die Benutzerschnittstelle nach dem Bereich suchen.

Eingabemodus ändern

Beim Konfigurieren eines Knotens können Sie alle Ressourcen, die Daten und Notebooks enthalten, auf verschiedene Arten angeben. Zum Beispiel die direkte Eingabe eines Namens oder einer ID, die Suche nach einem Asset oder die Verwendung der Ausgabe eines vorherigen Knotens in der Pipeline zum Füllen eines Felds. Sie können auf das Eingabesymbol für ein Feld klicken, um die für das Feld verfügbaren Optionen anzuzeigen. Abhängig vom Kontext können die Optionen Folgendes umfassen:

  • Ressource auswählen: Verwenden Sie den Asset-Browser, um ein Asset (z. B. eine Datendatei) zu suchen.
  • Pipeline-Parameter zuweisen: Weisen Sie einen Wert zu, indem Sie eine Variable verwenden, die mit einem Pipeline-Parameter konfiguriert ist. Weitere Informationen finden Sie unter Globale Objekte konfigurieren.
  • Wählen Sie einen anderen Knoten aus: Verwenden Sie die Ausgabe eines Knotens, der sich früher in der Pipeline befindet, als Wert für dieses Feld.
  • Geben Sie den Ausdruck ein: Geben Sie Code ein, um Werte zuzuordnen oder Ressourcen zu identifizieren Weitere Informationen finden Sie unter Elemente kodieren.

Pipelineknoten und Parameter

Konfigurieren Sie die folgenden Typen von Pipelineknoten:

Knoten kopieren

Verwenden Sie Kopieknoten, um Ihrer Pipeline Assets hinzuzufügen oder um Pipeline-Assets zu exportieren.

Ausgewählte Assets aus einem Projekt oder Bereich in einen nicht leeren Bereich kopieren. Sie können die folgenden Assets in einen Bereich kopieren:

  • AutoAI-Experiment

  • Codepaketjob

  • Verbindung

  • Data Refinery-Ablauf

  • Data Refinery-Job

  • Datenasset

  • Implementierungsjob

  • Umgebung

  • Funktion

  • Job

  • Modell

  • Notizbuch

  • Notebook-Job

  • Pipeline-Job

  • Script

  • Script-Job

  • SPSS Modeler-Job

Assets kopieren

Eingabeparameter

Parameter Beschreibung
Quellenassets Das Quellenasset, das der Liste hinzugefügt werden soll, anzeigen oder suchen. Sie können ein Asset auch mit einem Pipelineparameter, mit der Ausgabe eines anderen Knotens oder durch Eingabe der Asset-ID angeben.
Ziel Den Zielbereich anzeigen oder suchen.
Kopiermodus Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem der Ablauf versucht, ein Asset zu kopieren, und ein Asset desselben Namens vorhanden ist. Eine der folgenden Optionen: ignore, fail, overwrite

Ausgabeparameter

Parameter Beschreibung
Ausgabeassets Liste der kopierten Assets

Assets exportieren

Exportieren Sie ausgewählte Assets aus dem Geltungsbereich, z. B. einem Projekt- oder Implementierungsbereich. Die Operation exportiert standardmäßig alle Assets. Sie können die Assetauswahl durch Erstellen einer Liste der zu exportierenden Ressourcen begrenzen.

Eingabeparameter

Parameter Beschreibung
Anlagen Wählen Sie Bereich aus, um alle exportierbaren Elemente zu exportieren, oder wählen Sie Liste aus, um eine Liste bestimmter zu exportierender Elemente zu erstellen.
Quellenprojekt oder -bereich Name des Projekts oder Bereichs, der die zu exportierenden Assets enthält
Exportierte Datei Dateiposition zum Speichern der Exportdatei
Erstellungsmodus (optional) Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem der Datenfluss versucht, ein Asset zu erstellen, und ein Asset mit demselben Namen vorhanden ist. Eine der folgenden Optionen: ignore, fail, overwrite

Ausgabeparameter

Parameter Beschreibung
Exportierte Datei Pfad zur exportierten Datei

Hinweise:

  • Wenn Sie Projektassets exportieren, die ein Notebook enthalten, wird die neueste Version des Notebooks in die Exportdatei eingeschlossen. Wenn die Pipeline mit dem Knoten Notebook-Job ausführen für die Verwendung einer anderen Notebookversion als der neuesten Version konfiguriert wurde, wird die exportierte Pipeline beim Import automatisch für die Verwendung der neuesten Version rekonfiguriert. Dies kann zu unerwarteten Ergebnissen führen oder eine Rekonfiguration nach dem Import erfordern.
  • Wenn Assets im exportierten Projekt eigenständig sind, werden sie beibehalten, wenn Sie ein neues Projekt importieren. Andernfalls kann nach einem Import exportierter Assets eine Konfiguration erforderlich sein.

Assets importieren

Importieren Sie Assets aus einer ZIP-Datei, die exportierte Assets enthält.

Eingabeparameter

Parameter Beschreibung
Pfad zum Importieren des Ziels Suchen nach den zu importierenden Assets
Zu importierende Archivdatei Pfad zu einer ZIP-Datei oder einem Archiv angeben

Hinweise: Nach dem Import einer Datei werden Pfade und Verweise auf die importierten Assets gemäß den folgenden Regeln aktualisiert:

  • Verweise auf Assets aus dem exportierten Projekt oder Bereich werden im neuen Projekt oder Bereich nach dem Import aktualisiert.
  • Wenn Assets aus dem exportierten Projekt auf externe Assets verweisen (in einem anderen Projekt enthalten), bleibt der Verweis auf das externe Asset nach dem Import bestehen.
  • Wenn das externe Asset nicht mehr vorhanden ist, wird der Parameter durch einen leeren Wert ersetzt und Sie müssen das Feld neu konfigurieren, um auf ein gültiges Asset zu verweisen.

Knoten erstellen

Konfigurieren Sie die Knoten für die Erstellung von Assets in Ihrer Pipeline.

Experiment AutoAI erstellen

Verwenden Sie diesen Knoten, um ein AutoAI -Klassifikations-oder Regressionsexperiment zu trainieren und Pipelines für Modellkandidaten zu generieren.

Eingabeparameter

Parameter Beschreibung
Name des AutoAI-Experiments Name des neuen Experiments
Umfang Ein Projekt oder ein Bereich, in dem das Experiment erstellt wird
Vorhersagetyp Der Typ des Modells für die folgenden Daten: Binär, Klassifikation oder Regression.
Vorhersagespalte (Bezeichnung) Der Name der Vorhersagespalte
Positive Klasse (optional) Geben Sie eine positive Klasse für ein Experiment für binäre Klassifizierung an.
Teilungsverhältnis für Trainingsdaten (optional) Der Prozentsatz der Daten, die vom Training zurückgehalten und zum Testen der Pipelines verwendet werden sollen (Float: 0,0 - 1,0)
Einzuschließende Algorithmen (optional) Liste der zu verwendenden Schätzer begrenzen (die Liste hängt vom Lerntyp ab)
Zu verwendende Algorithmen Geben Sie die Liste der zu verwendenden Schätzer an (die Liste hängt vom Lerntyp ab).
Metrik optimieren (optional) Die für die Modelleinstufung verwendete Metrik.
Hardwarespezifikation (optional) Hardwarespezifikation für das Experiment angeben
AutoAI-Experimentbeschreibung Beschreibung des Experiments
AutoAI -Experimenttags (optional) Tags zur Identifizierung des Experiments
Erstellungsmodus (optional) Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem die Pipeline versucht, ein Experiment zu erstellen, und einer mit demselben Namen vorhanden ist. Eine der folgenden Optionen: ignore, fail, overwrite

Ausgabeparameter

Parameter Beschreibung
AutoAI-Experiment Pfad zum gespeicherten Modell

AutoAI-Zeitreihenexperiment erstellen

Verwenden Sie diesen Knoten, um ein AutoAI -Zeitreihenexperiment zu trainieren und Pipelines für Modellkandidaten zu generieren.

Eingabeparameter

Parameter Beschreibung
Name des AutoAI -Zeitreihenexperiments Name des neuen Experiments
Umfang Ein Projekt oder ein Bereich, in dem die Pipeline erstellt werden soll.
Vorhersagespalten (Beschriftung) Der Name einer oder mehrerer Vorhersagespalten
Datums-/Zeitspalte (optional) Name der Datums-/Uhrzeitspalte
Zukünftige Werte von unterstützenden Merkmalen nutzen Wählen Sie "True" aus, um die Berücksichtigung für die Unterstützung (exogene) Merkmale zur Verbesserung der Vorhersage zu aktivieren. Fügen Sie beispielsweise eine Temperaturfunktion für die Vorhersage des Eisverkaufs ein.
Unterstützende Features (optional) Unterstützende Funktionen auswählen und zur Liste hinzufügen
Imputationsmethode (optional) Verfahren zum Imputieren fehlender Werte in einem Dataset auswählen
Imputationsschwellenwert (optional) Geben Sie einen höheren Schwellenwert für den Prozentsatz der fehlenden Werte für die angegebene Imputationsmethode an. Wenn der Schwellenwert überschritten wird, schlägt das Experiment fehl. Wenn Sie beispielsweise angeben, dass 10% der Werte imputiert werden können und im Dataset 15% der Werte fehlen, schlägt das Experiment fehl.
Füllungstyp Geben Sie an, wie die angegebene Imputationsmethode Nullwerte auffüllt. Geben Sie einen Mittelwert aller Werte und Median aller Werte an oder geben Sie einen Füllwert an.
Füllwert (optional) Wenn Sie ausgewählt haben, einen Wert zum Ersetzen von Nullwerten anzugeben, geben Sie den Wert in dieses Feld ein.
Endgültiges Trainingsdataset Wählen Sie aus, ob abschließende Pipelines nur mit den Trainingsdaten oder mit Trainingsdaten und Holdout-Daten trainiert werden sollen. Wenn Sie Trainingsdaten auswählen, enthält das generierte Notebook eine Zelle zum Abrufen von Holdout-Daten
Holdout-Größe (optional) Wenn Sie Trainingsdaten in Trainings-und Holdout-Daten aufteilen, geben Sie einen Prozentsatz der Trainingsdaten an, die als Holdout-Daten für die Validierung der Pipelines reserviert werden. Holdout-Daten überschreiten nicht ein Drittel der Daten.
Anzahl Rücktests (optional) Passen Sie die Backtests an, um Ihr Zeitreihenexperiment zu überprüfen.
Lückenlänge (optional) Passen Sie die Anzahl der Zeitpunkte zwischen dem Trainingsdataset und dem Validierungsdataset für jeden Backtest an. Wenn der Parameterwert ungleich null ist, werden die Zeitreihenwerte in der Lücke nicht verwendet, um das Experiment zu trainieren oder den aktuellen Backtest auszuwerten.
Lookback-Fenster (optional) Ein Parameter, der angibt, wie viele vorherige Zeitreihenwerte zur Vorhersage des aktuellen Zeitpunkts verwendet werden.
Prognosefenster (optional) Der Bereich, den Sie auf der Basis der Daten im Lookback-Fenster vorhersagen möchten
Einzuschließende Algorithmen (optional) Liste der zu verwendenden Schätzer begrenzen (die Liste hängt vom Lerntyp ab)
Pipelines zum Ausführen Passen Sie optional die Anzahl der zu erstellenden Pipelines an. Mehr Pipelines erhöhen die Trainingszeit und die Ressourcen.
Hardwarespezifikation (optional) Hardwarespezifikation für das Experiment angeben
AutoAI -Beschreibung des Zeitreihenexperiments (optional) Beschreibung des Experiments
AutoAI -Experimenttags (optional) Tags zur Identifizierung des Experiments
Erstellungsmodus (optional) Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem die Pipeline versucht, ein Experiment zu erstellen, und einer mit demselben Namen vorhanden ist. Eine der folgenden Optionen: ignore, fail, overwrite

Ausgabeparameter

Parameter Beschreibung
AutoAI -Zeitreihenexperiment Pfad zum gespeicherten Modell

Batchbereitstellung erstellen

Mit diesem Knoten können Sie eine Batchbereitstellung für ein Modell für maschinelles Lernen erstellen.

Eingabeparameter

Parameter Beschreibung
ML-Asset Name oder ID des bereitzustellenden Machine Learning-Assets.
Neuer Implementierungsname (optional) Name des neuen Jobs mit optionaler Beschreibung und optionalen Tags.
Erstellungsmodus (optional) Vorgehensweise zum Verarbeiten eines Falls, bei dem die Pipeline versucht, einen Job zu erstellen, und einer mit demselben Namen vorhanden ist Eine der folgenden Optionen: ignore, fail, overwrite
Neue Implementierungsbeschreibung (optional) Beschreibung der Bereitstellung
Neue Implementierungstags (optional) Tags zur Identifizierung der Bereitstellung
Hardwarespezifikation (optional) Hardwarespezifikation für den Job angeben

Ausgabeparameter

Parameter Beschreibung
Neue Implementierung Pfad der neu erstellten Bereitstellung

Datenasset erstellen

Mit diesem Knoten können Sie ein Datenasset erstellen.

Eingabeparameter

Parameter Beschreibung
Datei Pfad zur Datei in einem Dateispeicher
Zielbereich Pfad zum Zielbereich oder -projekt
Name (optional) Name der Datenquelle mit optionaler Beschreibung, Herkunftsland und Tags
Beschreibung (optional) Beschreibung für die Anlage
Ursprungsland (optional) Ursprungsland für Datenbestimmungen
Tags (optional) Tags zur Identifizierung von Assets
Erstellungsmodus Vorgehensweise zum Verarbeiten eines Falls, bei dem die Pipeline versucht, einen Job zu erstellen, und einer mit demselben Namen vorhanden ist Eine der folgenden Optionen: ignore, fail, overwrite

Ausgabeparameter

Parameter Beschreibung
Datenasset Das neu erstellte Datenasset

Bereitstellungsbereich erstellen

Verwenden Sie diesen Knoten zum Erstellen und Konfigurieren eines Bereichs, den Sie zum Organisieren und Erstellen von Bereitstellungen verwenden können.

Eingabeparameter

Parameter Beschreibung
Name des neuen Bereichs Name des neuen Bereichs mit optionaler Beschreibung und optionalen Tags.
Neue Space-Tags (optional) Tags zur Identifizierung des Bereichs
Neue CRN für COS-Bereichsinstanz CRN der COS-Serviceinstanz
Neuer Speicherplatz-WML-Instanz-CRN (optional) CRN der watsonx.ai Runtime-Dienstinstanz
Erstellungsmodus (optional) Vorgehensweise zum Verarbeiten eines Falls, bei dem die Pipeline versucht, einen Bereich zu erstellen, und einer mit demselben Namen vorhanden ist Eine der folgenden Optionen: ignore, fail, overwrite
Bereichsbeschreibung (optional) Beschreibung des Bereichs

Ausgabeparameter

Parameter Beschreibung
Bereich Pfad des neu erstellten Bereichs

Onlinebereitstellung erstellen

Mit diesem Knoten können Sie eine Onlineimplementierung erstellen, in der Sie Testdaten direkt an einen REST-API-Endpunkt eines Web-Service übergeben können.

Eingabeparameter

Parameter Beschreibung
ML-Asset Name oder ID des bereitzustellenden Machine Learning-Assets.
Neuer Implementierungsname (optional) Name des neuen Jobs mit optionaler Beschreibung und optionalen Tags.
Erstellungsmodus (optional) Vorgehensweise zum Verarbeiten eines Falls, bei dem die Pipeline versucht, einen Job zu erstellen, und einer mit demselben Namen vorhanden ist Eine der folgenden Optionen: ignore, fail, overwrite
Neue Implementierungsbeschreibung (optional) Beschreibung der Bereitstellung
Neue Implementierungstags (optional) Tags zur Identifizierung der Bereitstellung
Hardwarespezifikation (optional) Hardwarespezifikation für den Job angeben

Ausgabeparameter

Parameter Beschreibung
Neue Implementierung Pfad der neu erstellten Bereitstellung

Warten

Verwenden Sie Knoten, um eine Pipeline anzuhalten, bis ein Asset an der im Pfad angegebenen Position verfügbar ist.

Verwenden Sie diesen Knoten, um zu warten, bis alle Ergebnisse der vorherigen Knoten in der Pipeline verfügbar sind, damit die Pipeline fortgesetzt werden kann.

Dieser Knoten verwendet keine Eingaben und erzeugt keine Ausgabe. Wenn die Ergebnisse alle verfügbar sind, wird die Pipeline automatisch fortgesetzt.

Auf alle Ergebnisse warten

Verwenden Sie diesen Knoten, um zu warten, bis ein Ergebnis von den vorherigen Knoten in der Pipeline verfügbar wird, damit die Pipeline fortgesetzt werden kann. Führen Sie die nachgeordneten Knoten aus, sobald eine der vorgeordneten Bedingungen erfüllt ist.

Dieser Knoten verwendet keine Eingaben und erzeugt keine Ausgabe. Wenn Ergebnisse verfügbar sind, wird die Pipeline automatisch fortgesetzt.

Auf Ergebnis warten

Warten Sie, bis ein Asset an der Position erstellt oder aktualisiert wird, die im Pfad von einem früheren Job oder Prozess in der Pipeline angegeben ist. Geben Sie eine Zeitlimitlänge an, die auf die Erfüllung der Bedingung gewartet werden soll. Wenn 00:00:00 die angegebene Zeitlimitlänge ist, wartet der Nachrichtenfluss unbegrenzt.

Auf Datei warten

Eingabeparameter

Parameter Beschreibung
Dateiposition Geben Sie die Position im Asset-Browser an, an der sich die Anlage befindet. Verwenden Sie das Format data_asset/filename, wobei der Pfad relativ zum Stammverzeichnis ist. Die Datei muss vorhanden sein und sich an der angegebenen Position befinden. Andernfalls schlägt der Knoten mit einem Fehler fehl.
Wartemodus Standardmäßig ist der Modus so eingestellt, dass die Datei angezeigt wird. Sie können zum Warten auf das Verschwinden der Datei wechseln
Zeitlimitlänge (optional) Geben Sie die Wartezeit an, bevor Sie mit der Pipeline fortfahren. Verwenden Sie das Format hh:mm:ss
Fehlerrichtlinie (optional) Siehe Fehlerbehandlung.

Ausgabeparameter

Parameter Beschreibung
Rückgabewert Rückgabewert vom Knoten
Ausführungsstatus Gibt den Wert "Abgeschlossen", "Mit Warnungen abgeschlossen", "Mit Fehlern abgeschlossen", "Fehlgeschlagen" oder "Abgebrochen" zurück.
Statusnachricht Nachricht, die dem Status zugeordnet ist

Steuerknoten

Steuern Sie die Pipeline durch Hinzufügen von Fehlerbehandlung und Logik.

Schleifen sind ein Knoten in einer Pipeline, der wie eine codierte Schleife funktioniert.

Die beiden Schleifentypen sind parallel und sequenziell.

Sie können Schleifen verwenden, wenn die Anzahl der Iterationen für eine Operation dynamisch ist. Wenn Sie beispielsweise die Anzahl der zu verarbeitenden Notebooks nicht kennen oder die Anzahl der Notebooks zur Laufzeit auswählen möchten, können Sie eine Schleife verwenden, um die Liste der Notebooks zu durchlaufen.

Sie können auch eine Schleife verwenden, um durch die Ausgabe eines Knotens oder durch Elemente in einem Datenarray zu iterieren.

Achtung! Der Cache wird nicht sequentiell zwischen Schleifeniterationen in einer Pipeline übertragen. Die Ergebnisse der ersten Iteration werden nur in der ersten Iteration des nachfolgenden Laufs verwendet.

Schleifen parallel

Fügen Sie der Pipeline ein paralleles Schleifenkonstrukt hinzu. Eine parallele Schleife führt die iterierenden Knoten unabhängig und möglicherweise gleichzeitig aus.

Um beispielsweise ein Modell für maschinelles Lernen mit einer Gruppe von Hyperparametern zu trainieren, um den leistungsfähigsten Benutzer zu finden, können Sie eine Schleife verwenden, um eine Liste von Hyperparametern zu iterieren, um die Notebook-Variationen parallel zu trainieren. Die Ergebnisse können später im Ablauf verglichen werden, um das beste Notebook zu finden.

Eingabeparameter beim Iterieren von Listentypen

Parameter Beschreibung
Listeneingabe Der Parameter Listeneingabe enthält zwei Felder, den Datentyp der Liste und den Listeninhalt, über den die Schleife iteriert, oder einen Standardlink zur Pipelineeingabe oder -ausgabe.
Parallelität Maximale Anzahl gleichzeitig auszuführender Tasks. Muss größer als null sein

Eingabeparameter beim Iterieren von Zeichenfolgetypen

Parameter Beschreibung
Texteingabe Textdaten, aus denen die Schleife liest
Trennzeichen Ein Zeichen, das zum Aufteilen des Textes verwendet wird
Parallelität (optional) Maximale Anzahl gleichzeitig auszuführender Tasks. Muss größer als null sein

Wenn der Typ des Eingabe-Array-Elements JSON oder ein Typ ist, der als solcher dargestellt wird, kann dieses Feld es als Wörterverzeichnis zerlegen. Schlüssel sind die ursprünglichen Elementschlüssel und Werte sind die Aliasnamen für Ausgabenamen.

Ausgabeparameter

Parameter Beschreibung
Kontrolle Pause Knoten-ID Enthält die Knoten-ID des Terminator-Knotens, an dem der Knoten beendet wurde, ansonsten leer
Ausführungsstatus Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen
Statusnachricht Informationen zum Status des Jobs

Schleifen in Folge

Fügen Sie ein sequenzielles Schleifenkonstrukt zur Pipeline hinzu. Schleifen können über einen numerischen Bereich, eine Liste oder Text mit einem Begrenzer iterieren.

Ein Anwendungsfall für sequenzielle Schleifen ist, wenn Sie eine Operation 3 Mal versuchen möchten, bevor Sie feststellen, ob eine Operation fehlgeschlagen ist.

Eingabeparameter

Parameter Beschreibung
Listeneingabe Der Parameter Listeneingabe enthält zwei Felder, den Datentyp der Liste und den Listeninhalt, über den die Schleife iteriert, oder einen Standardlink zur Pipelineeingabe oder -ausgabe.
Texteingabe Textdaten, aus denen die Schleife liest. Geben Sie ein Zeichen an, um den Text zu teilen.
Bereich Geben Sie den Start, das Ende und optional einen Schritt an, über den ein Bereich iteriert werden soll. Der Standardschritt ist 1.

Nachdem Sie den iterativen Schleifenbereich konfiguriert haben, definieren Sie einen Subpipelineablauf innerhalb der Schleife, der ausgeführt werden soll, bis die Schleife abgeschlossen ist. Sie kann beispielsweise Notebook, Script oder anderen Ablauf pro Iteration aufrufen.

Ausgabeparameter

Parameter Beschreibung
Kontrolle Pause Knoten-ID Enthält die Knoten-ID des Terminator-Knotens, an dem der Knoten beendet wurde, ansonsten leer
Ausführungsstatus Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen
Statusnachricht Informationen zum Status des Jobs

Schleife beenden

In einem Prozessablauf mit paralleler oder sequenzieller Schleife können Sie einen Knoten Pipeline beenden hinzufügen, um den Schleifenprozess jederzeit zu beenden. Sie müssen Ihre eigenen Bedingungen für die Beendigung festlegen. In den Knoten können Sie den Status der Schleife bei Beendigung entweder als Vollständig oder Fehlschlag angeben. Dadurch wird sichergestellt, dass Sie die Schleife abschließen und trotzdem die Bedingungen für das Scheitern des Schleifenknotens erfüllen können und entweder mit der Pipeline fortfahren oder andere Aktionen durchführen können.

Achtung: Wenn Sie den Knoten "Schleife beenden" verwenden, bricht Ihre Schleife alle laufenden Tasks ab und wird beendet, ohne die Iteration abzuschließen.

Benutzervariablen festlegen

Konfigurieren Sie eine Benutzervariable mit einem Schlüssel/Wert-Paar, und fügen Sie anschließend die Liste der dynamischen Variablen für diesen Knoten hinzu.

Weitere Informationen zum Erstellen einer Benutzervariablen finden Sie unter Globale Objekte konfigurieren.

Eingabeparameter

Tabelle 1. Eingabeparameter für Benutzervariablen
Parameter Beschreibung
Ihren Namen Geben Sie den Namen oder den Schlüssel für die Variable ein
Eingabetyp Wählen Sie Ausdruck oder Pipelineparameter als Eingabetyp aus.
  • Verwenden Sie für Ausdrücke den integrierten Expression Builder, um eine Variable zu erstellen, die aus einem angepassten Ausdruck resultiert.
  • Weisen Sie für Pipelineparameter einen Pipelineparameter zu und verwenden Sie den Parameterwert als Eingabe für die Benutzervariable.

Pipeline beenden

Sie können die Beendigung einer Pipeline mit einem Knoten "Pipeline beenden" aus der Kategorie "Steuerung" einleiten und steuern. Wenn der Fehlerablauf ausgeführt wird, können Sie optional angeben, wie Notebook-oder Trainingsjobs verarbeitet werden sollen, die von Knoten in der Pipeline eingeleitet wurden. Sie müssen angeben, ob auf die Beendigung von Jobs gewartet werden soll, ob die Jobs abgebrochen werden sollen und ob die Pipeline gestoppt werden soll oder ob alle Jobs ohne Abbruch gestoppt werden sollen. Geben Sie die Optionen für den Knoten "Pipeline beenden" an.

Eingabeparameter

Parameter Beschreibung
Abschlussmodus (optional) Wählen Sie das Verhalten für den Fehlerfluss aus

Der Terminator-Modus kann Folgendes auslösen:

  • Pipelineausführung und alle aktiven Jobs beenden stoppt alle Jobs und die Pipeline.
  • Alle aktiven Jobs abbrechen und Pipeline beenden bricht alle aktiven Jobs ab, bevor die Pipeline gestoppt wird.
  • Pipelineausführung nach Abschluss der Ausführung von Jobs beenden wartet, bis aktive Jobs beendet sind, und stoppt dann die Pipeline.
  • Pipeline beenden, die ohne Stoppen von Jobs ausgeführt wird stoppt die Pipeline, ermöglicht jedoch die Fortsetzung der Ausführung von Jobs.

Knoten aktualisieren

Verwenden Sie Aktualisierungsknoten zum Ersetzen oder Aktualisieren von Assets, um die Leistung zu verbessern. Wenn Sie beispielsweise Ihre Tags standardisieren wollen, können Sie mit einer Aktualisierung einen Tag durch einen neuen Tag ersetzen.

Aktualisieren Sie die Trainingsdetails für ein AutoAI -Experiment.

AutoAI-Experiment aktualisieren

Eingabeparameter

Parameter Beschreibung
AutoAI-Experiment Pfad zu einem Projekt oder einem Bereich, in dem sich das Experiment befindet
Name des AutoAI -Experiments (optional) Name des zu aktualisierenden Experiments mit optionaler Beschreibung und optionalen Tags.
Beschreibung des Experiments AutoAI (optional) Beschreibung des Experiments
AutoAI -Experimenttags (optional) Tags zur Identifizierung des Experiments

Ausgabeparameter

Parameter Beschreibung
AutoAI-Experiment Pfad des aktualisierten Experiments

Batchbereitstellung aktualisieren

Verwenden Sie diese Parameter zum Aktualisieren einer Batchbereitstellung.

Eingabeparameter

Parameter Beschreibung
Bereitstellung Pfad zu der Bereitstellung, die aktualisiert werden soll.
Neuer Name für die Implementierung (optional) Name oder ID der Implementierung, die aktualisiert werden soll
Neue Beschreibung für die Implementierung (optional) Beschreibung der Bereitstellung
Neue Tags für die Implementierung (optional) Tags zur Identifizierung der Bereitstellung
ML-Asset Name oder ID des bereitzustellenden Machine Learning-Assets.
Hardwarespezifikation Hardwarespezifikation für den Job aktualisieren

Ausgabeparameter

Parameter Beschreibung
Bereitstellung Pfad der aktualisierten Bereitstellung

Bereitstellungsbereich aktualisieren

Aktualisieren Sie die Details für einen Bereich.

Eingabeparameter

Parameter Beschreibung
Bereich Pfad des vorhandenen Bereichs
Bereichsname (optional) Bereichsnamen aktualisieren
Bereichsbeschreibung (optional) Beschreibung des Bereichs
Space-Tags (optional) Tags zur Identifizierung des Bereichs
WML-Instanz (optional) Geben Sie eine neue Machine Learning -Instanz an
WML-Instanz Geben Sie eine neue Machine Learning-Instanz an. Anmerkung: Auch wenn Sie einen anderen Namen für eine Instanz in der Benutzerschnittstelle zuweisen, lautet der Systemname Machine Learning instance. Unterscheidung zwischen verschiedenen Instanzen mithilfe des Instanz-CRN

Ausgabeparameter

Parameter Beschreibung
Bereich Pfad des aktualisierten Bereichs

Online-Implementierung aktualisieren

Verwenden Sie diese Parameter, um eine Online-Implementierung (Web-Service) zu aktualisieren.

Eingabeparameter

Parameter Beschreibung
Bereitstellung Pfad der vorhandenen Bereitstellung
Implementierungsname (optional) Bereitstellungsnamen aktualisieren
Implementierungsbeschreibung (optional) Beschreibung der Bereitstellung
Implementierungstags (optional) Tags zur Identifizierung der Bereitstellung
Asset (optional) Erneut bereitzustellendes Machine Learning-Asset (oder Version)

Ausgabeparameter

Parameter Beschreibung
Bereitstellung Pfad der aktualisierten Bereitstellung

Knoten löschen

Konfigurieren Sie Parameter für Löschoperationen.

Löschen

Sie können Folgendes löschen:

  • AutoAI-Experiment
  • Batchbereitstellung
  • Bereitstellungsbereich
  • Onlinebereitstellung

Wählen Sie für jedes Element das zu löschende Asset aus.

Ausführungsknoten

Verwenden Sie diese Knoten, um ein Experiment zu trainieren, ein Script auszuführen oder einen Datenfluss auszuführen.

AutoAI-Experiment ausführen

Trainiert und speichert AutoAI -Experiment -Pipelines und -Modelle.

Eingabeparameter

Parameter Beschreibung
AutoAI-Experiment Suchen Sie nach dem Asset der ML-Pipeline, oder rufen Sie das Experiment von einem Pipelineparameter oder von der Ausgabe eines vorherigen Knotens ab.
Trainingsdatenasset Die Daten zum Trainieren des Experiments anzeigen oder suchen. Beachten Sie, dass Sie Daten zur Laufzeit mithilfe eines Pipelineparameters bereitstellen können.
Holdout-Datenasset (optional) Wählen Sie optional eine separate Datei aus, die für Holdout-Daten zum Testen der Modellleistung verwendet werden soll.
Modellanzahl (optional) Angeben, wie viele Modelle der Pipelines mit der besten Leistung gespeichert werden sollen. Der Grenzwert beträgt 3 Modelle
Ausführungsname (optional) Name des Experiments und optionale Beschreibung und Tags.
Präfix für Modellnamen (optional) Präfix für die Benennung trainierter Modelle. Standardwert: < (Experimentname) >
Ausführungsbeschreibung (optional) Beschreibung des neuen Trainingslaufs
Tags ausführen (optional) Tags für neuen Trainingslauf
Erstellungsmodus (optional) Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem der Pipelineablauf versucht, ein Asset zu erstellen, und ein Asset mit demselben Namen vorhanden ist. Eine der folgenden Optionen: ignore, fail, overwrite
Fehlerrichtlinie (optional) Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten.

Ausgabeparameter

Parameter Beschreibung
Modelle Liste der Pfade des höchsten N trainierten und als persistent definierten Modells (sortiert nach ausgewählter Auswertungsmetrik)
Bestes Modell Pfad des besten Modells (auf der Basis der ausgewählten Auswertungsmetrik)
Modellmetriken Eine Liste der trainierten Modellmetriken (jedes Element ist ein verschachteltes Objekt mit Metriken wie holdout_precision, holdout_average_precision, ...)
Siegermodellmetrik Ausgewählte Auswertungsmetrik des Siegermodells.
Optimierte Metrik Zum Optimieren des Modells verwendete Metrik.
Ausführungsstatus Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen
Statusnachricht Informationen zum Status des Jobs

Ein Script ausführen

Führen Sie ein integriertes Bash-Script aus, um eine Funktion oder einen Prozess für die Pipeline zu automatisieren. Sie können den Bash-Script-Code manuell eingeben oder das Bash-Script aus einer Ressource, einem Pipelineparameter oder der Ausgabe eines anderen Knotens importieren.

Sie können auch ein Bash-Script verwenden, um große Ausgabedateien zu verarbeiten. Sie können beispielsweise eine große, durch Kommas getrennte Liste generieren, die Sie dann mithilfe einer Schleife iterieren können.

Im folgenden Beispiel hat der Benutzer den Inline-Script-Code manuell eingegeben. Das Script verwendet das Tool cpdctl , um alle Notebooks mit einem festgelegten Variablentag zu durchsuchen und die Ergebnisse in einer JSON-Liste zu aggregieren. Die Liste kann dann in einem anderen Knoten verwendet werden, z. B. zum Ausführen der Notebooks, die von der Suche zurückgegeben werden.

Beispiel für einen Bash-Scriptknoten

Eingabeparameter

Parameter Beschreibung
Inline-Script-Code Geben Sie ein Bash-Script im integrierten Codeeditor ein. Optional: Alternativ können Sie eine Ressource auswählen, einen Pipelineparameter zuweisen oder einen anderen Knoten auswählen.
Umgebungsvariablen (optional) Geben Sie einen Variablennamen (den Schlüssel) und einen Datentyp an und fügen Sie sie der Liste der Variablen hinzu, die im Script verwendet werden sollen.
Laufzeittyp (optional) Wählen Sie Standalone-Laufzeit verwenden (Standardeinstellung) oder eine gemeinsam genutzte Laufzeit aus. Verwenden Sie eine gemeinsam genutzte Laufzeit für Tasks, die in gemeinsam genutzten Pods ausgeführt werden müssen.
Fehlerrichtlinie (optional) Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten.

Ausgabeparameter

Parameter Beschreibung
Ausgabevariablen Konfigurieren Sie für jede benutzerdefinierte Variable ein Schlüssel/Wert-Paar und klicken Sie anschließend auf die Schaltfläche Hinzufügen, um die Liste der dynamischen Variablen für den Knoten zu füllen.
Rückgabewert Rückgabewert vom Knoten
Standardausgabe Standardausgabe des Scripts
Standardfehler Standardfehlernachricht aus dem Script
Ausführungsstatus Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen
Statusnachricht Nachricht, die dem Status zugeordnet ist

Regeln für Bash-Scriptausgabe

Die Ausgabe für ein Bash-Script ist häufig das Ergebnis eines berechneten Ausdrucks und kann groß sein. Wenn Sie die Eigenschaften für ein Script mit einer gültigen großen Ausgabe überprüfen, können Sie die Ausgabe in einem Viewer voranzeigen oder herunterladen.

Diese Regeln regeln, welcher Typ von großer Ausgabe gültig ist.

  • Die Ausgabe eines list_expression s ist ein berechneter Ausdruck, daher ist sie eine große Ausgabe.
  • Die Zeichenfolgeausgabe wird als Literalwert und nicht als berechneter Ausdruck behandelt. Daher muss sie den Größenbegrenzungen entsprechen, die Inlineausdrücke regeln. Beispiel: Sie werden gewarnt, wenn ein Literalwert 1 KB überschreitet und Werte von 2 KB und höher zu einem Fehler führen.
  • Sie können Standardfehlernachrichten in Ihre Standardausgabe (standard_output) einschließen und anzeigen, beispielsweise mit der Funktion GetCommandOutput .

Auf eine Variable in einem Bash-Script verweisen

Wie Sie in einem Script auf eine Variable verweisen, hängt davon ab, ob die Variable als Eingabevariable oder als Ausgabevariable erstellt wurde. Ausgabevariablen werden als Datei erstellt und benötigen einen Dateipfad in der Referenz. Beachten Sie insbesondere Folgendes:

  • Eingabevariablen sind mit dem zugeordneten Namen verfügbar
  • Für Ausgabevariablennamen muss _PATH an den Variablennamen angehängt werden, um anzugeben, dass Werte in die Ausgabedatei geschrieben werden müssen, auf die die Variable {output_name}_PATH verweist.

Batchbereitstellung ausführen

Konfigurieren Sie diesen Knoten, um ausgewählte Bereitstellungsjobs auszuführen.

Eingabeparameter

Parameter Beschreibung
Bereitstellung Suchen Sie nach dem Bereitstellungsjob.
Eingabedatenassets Die für den Batch-Job verwendeten Daten angeben.
Ausgabeasset Name der Ausgabedatei für die Ergebnisse des Batch-Jobs. Sie können Dateiname auswählen und einen angepassten Dateinamen eingeben oder Datenasset auswählen und ein vorhandenes Asset in einem Bereich auswählen.
Hardwarespezifikation (optional) Nach einer Hardwarespezifikation suchen, die für den Job gelten soll
Fehlerrichtlinie (optional) Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten.

Ausgabeparameter

Parameter Beschreibung
Job Pfad zur Datei mit Ergebnissen aus dem Bereitstellungsjob.
Jobausführung ID für den Job
Ausführungsstatus Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen
Statusnachricht Informationen zum Status des Jobs
Einschränkung: Alle Eingabe- und Ausgabeoptionen, die Sie beim Erstellen Ihres Batch-Jobs definiert haben, werden über den Knoten Batch-Bereitstellungsjob ausführen unterstützt. Dazu gehört die Angabe mehrerer Dateien als Eingabe für eine SPSS Modeler oder Decision Optimization oder die Angabe einer JSON-Datei als Eingabe. Einige der Eingabe- und Ausgabeoptionen können jedoch in der Knotenschnittstelle Batch-Bereitstellungsauftrag ausführen nicht überschrieben werden.

IBM DataStage ist ein Datenintegrationstool zum Entwerfen, Entwickeln und Ausführen von Jobs, die Daten versetzen und transformieren. Führen Sie einen DataStage -Job aus und verwenden Sie die Ausgabe in einem späteren Knoten.

Der folgende Ablauf zeigt beispielsweise einen Run DataStage -Knoten, der Daten aus einem Git -Repository abruft. Wenn der Job erfolgreich ausgeführt wird, führt die Pipeline den nächsten Knoten aus und erstellt einen Bereitstellungsbereich. Wenn der Job fehlschlägt, wird eine Benachrichtigungs-E-Mail ausgelöst und die Schleife wird beendet.

Ausführen eines DataStage -Jobs in einer Pipeline

Parameter Beschreibung
DataStage-Job Pfad zum DataStage -Job
Werte für lokale Parameter (optional) Bearbeiten Sie die Standardjobparameter. Diese Option ist nur verfügbar, wenn der Job lokale Parameter enthält.
Werte aus Parametersätzen (optional) Bearbeiten Sie die von diesem Job verwendeten Parametersätze. Sie können die Parameter wie standardmäßig definiert verwenden oder Wertegruppen aus den Parametern anderer Pipelines verwenden.
Umgebung Suchen Sie die Umgebung, die für die Ausführung des Jobs DataStage verwendet wird, und wählen Sie sie aus.
Achtung: Lassen Sie das Feld 'environments' unverändert, damit die DataStage -XS-Standardlaufzeit verwendet wird. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
Umgebungsvariablen (optional) Einen Variablennamen (Schlüssel) und einen Datentyp angeben und zur Liste der Variablen hinzufügen, die im Job verwendet werden sollen
Jobparameter (optional) Zusätzlicher Parameter, der an den Job übergeben wird, wenn er ausgeführt wird. Geben Sie ein Schlüssel/Wert-Paar an und fügen Sie es der Liste hinzu.
Hinweis: Wenn der lokale Parameter DSJobInvocationId verwendet wird, wird dieser Wert als Jobname im Jobdetaildashboard übergeben.
Fehlerrichtlinie (optional) Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten.

Ausgabeparameter

Parameter Beschreibung
Job Pfad zu den Ergebnissen des Jobs DataStage
Jobausführung Informationen zur Jobausführung
Jobname Name des Jobs
Ausführungsstatus Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen
Statusnachricht Informationen zum Status des Jobs

Data Refinery-Job ausführen

Dieser Knoten führt einen angegebenen Data Refinery -Job aus.

Eingabeparameter

Parameter Beschreibung
Data Refinery-Job Pfad zum Job Data Refinery .
Umgebung Pfad der Umgebung, in der der Job ausgeführt wird
Achtung: Lassen Sie das Feld 'environments' unverändert, damit die Standardlaufzeit verwendet wird. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Komponentensprache und der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
Fehlerrichtlinie (optional) Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten.

Ausgabeparameter

Parameter Beschreibung
Job Pfad zu den Ergebnissen aus dem Data Refinery-Job
Jobausführung Informationen zur Jobausführung
Jobname Name des Jobs
Ausführungsstatus Informationen zum Status des Flusses: anstehend, gestartet, beendet, abgebrochen oder mit Fehlern fehlgeschlagen
Statusnachricht Informationen zum Status des Datenflusses

Notebook-Job ausführen

Verwenden Sie diese Konfigurationsoptionen, um anzugeben, wie ein Jupyter Notebook in einer Pipeline ausgeführt werden soll.

Eingabeparameter

Parameter Beschreibung
Notebook-Job Pfad zum Notebook-Job.
Umgebung Pfad der Umgebung, die zum Ausführen des Notebooks verwendet wird
Achtung: Lassen Sie das Feld "Umgebungen" unverändert, um die Standardumgebung zu verwenden. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Notebooksprache und der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
Umgebungsvariablen (optional) Liste der Umgebungsvariablen, die zum Ausführen des Notebook-Jobs verwendet werden
Fehlerrichtlinie (optional) Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten.

Hinweise:

  • Umgebungsvariablen, die Sie in einer Pipeline definieren, können nicht für Notebook-Jobs verwendet werden, die Sie außerhalb von Orchestrierungspipelines ausführen.
  • Sie können ein Notebook aus einem Codepaket in einem regulären Paket ausführen.

Ausgabeparameter

Parameter Beschreibung
Job Pfad zu den Ergebnissen des Notebook-Jobs
Jobausführung Informationen zur Jobausführung
Jobname Name des Jobs
Ausgabevariablen Konfigurieren Sie ein Schlüssel/Wert-Paar für jede benutzerdefinierte Variable und klicken Sie anschließend auf Hinzufügen , um die Liste der dynamischen Variablen für den Knoten zu füllen
Ausführungsstatus Informationen zum Status der Ausführung: anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen
Statusnachricht Informationen zum Status des ausgeführten Notizbuchs

"Pipelines"-Komponente ausführen

Führen Sie eine wiederverwendbare Pipelinekomponente aus, die mit einem Python -Script erstellt wurde. Weitere Informationen finden Sie unter Angepasste Komponente erstellen.

  • Wenn eine Pipelinekomponente verfügbar ist, wird beim Konfigurieren des Knotens eine Liste der verfügbaren Komponenten angezeigt.
  • Die von Ihnen ausgewählte Komponente gibt die Eingabe und Ausgabe für den Knoten an.
  • Nachdem Sie einem Knoten eine Komponente zugewiesen haben, kann die Komponente weder gelöscht noch geändert werden. Sie müssen den Knoten löschen und einen neuen erstellen.

Pipeline-Job ausführen

Fügen Sie eine Pipeline hinzu, um einen verschachtelten Pipelinejob als Teil einer übergeordneten Pipeline auszuführen. Auf diese Weise können wiederverwendbare Prozesse mehreren Pipelines hinzugefügt werden. Sie können die Ausgabe einer verschachtelten Pipeline verwenden, die als Eingabe für einen Knoten in der übergeordneten Pipeline ausgeführt wird.

Eingabeparameter

Parameter Beschreibung
Pipeline-Job Wählen Sie einen Pfad zu einem vorhandenen Pipelines-Job aus oder geben Sie ihn ein.
Umgebung (optional) Wählen Sie die Umgebung aus, in der der Pipelines-Job ausgeführt werden soll, und ordnen Sie Umgebungsressourcen zu.
Achtung: Lassen Sie das Feld 'environments' unverändert, damit die Standardlaufzeit verwendet wird. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Komponentensprache und der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
Name der Jobausführung (optional) Ein Standardjobausführungsname wird verwendet, es sei denn, Sie überschreiben ihn, indem Sie einen angepassten Jobausführungsnamen angeben. Der Name der Jobausführung wird im Dashboard Jobdetails angezeigt.
Werte für lokale Parameter (optional) Bearbeiten Sie die Standardjobparameter. Diese Option ist nur verfügbar, wenn der Job lokale Parameter enthält.
Werte aus Parametersätzen (optional) Bearbeiten Sie die von diesem Job verwendeten Parametersätze. Sie können die Parameter wie standardmäßig definiert verwenden oder Wertegruppen aus den Parametern anderer Pipelines verwenden.
Fehlerrichtlinie (optional) Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten.

Ausgabeparameter

Parameter Beschreibung
Job Pfad zu den Ergebnissen des Pipelinejobs
Jobausführung Informationen zur Jobausführung
Jobname Name des Jobs
Ausführungsstatus Gibt den Wert "Abgeschlossen", "Mit Warnungen abgeschlossen", "Mit Fehlern abgeschlossen", "Fehlgeschlagen" oder "Abgebrochen" zurück.
Statusnachricht Nachricht, die dem Status zugeordnet ist

Hinweise zur Ausführung verschachtelter Pipelinejobs

Wenn Sie eine Pipeline mit verschachtelten Pipelines erstellen und einen Pipelinejob von der höchsten Ebene ausführen, werden die Pipelines benannt und als Projektassets gespeichert, die diese Konvention verwenden:

  • Der Pipeline-Job der höchsten Ebene hat den Namen "Testjob- Pipeline-GUID".
  • Alle nachfolgenden Jobs werden "pipeline_ pipeline guid" genannt.

SPSS Modeler-Job ausführen

Verwenden Sie diese Konfigurationsoptionen, um festzulegen, wie ein SPSS Modeler in einer Pipeline ausgeführt werden soll.

Eingabeparameter

Parameter Beschreibung
SPSS Modeler-Job Wählen Sie einen Pfad zu einem vorhandenen SPSS Modeler -Job aus oder geben Sie einen Pfad ein.
Umgebung (optional) Wählen Sie die Umgebung aus, in der der Job SPSS Modeler ausgeführt werden soll, und weisen Sie Umgebungsressourcen zu.
Achtung: Lassen Sie das Feld 'environments' unverändert, damit die Standardlaufzeitumgebung SPSS Modeler verwendet wird. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
Werte für lokale Parameter Bearbeiten Sie die Standardjobparameter. Diese Option ist nur verfügbar, wenn der Job lokale Parameter enthält.
Fehlerrichtlinie (optional) Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten.

Ausgabeparameter

Parameter Beschreibung
Job Pfad zu den Ergebnissen des Pipelinejobs
Jobausführung Informationen zur Jobausführung
Jobname Name des Jobs
Ausführungsstatus Gibt den Wert "Abgeschlossen", "Mit Warnungen abgeschlossen", "Mit Fehlern abgeschlossen", "Fehlgeschlagen" oder "Abgebrochen" zurück.
Statusnachricht Nachricht, die dem Status zugeordnet ist

Weitere Informationen

Übergeordnetes Thema: Pipeline erstellen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen