Konfigurieren Sie die Knoten Ihrer Pipeline, um Eingaben anzugeben und Ausgaben als Teil Ihrer Pipeline zu erstellen.
Arbeitsbereichsbereich angeben
Standardmäßig ist der Geltungsbereich für eine Pipeline das Projekt, das die Pipeline enthält. Sie können explizit einen anderen als den Standardbereich angeben, um ein Asset zu lokalisieren, das in der Pipeline verwendet wird. Der Bereich ist das Projekt, der Katalog oder der Bereich, das bzw. der das Asset enthält. Sie können über die Benutzerschnittstelle nach dem Bereich suchen.
Eingabemodus ändern
Beim Konfigurieren eines Knotens können Sie alle Ressourcen, die Daten und Notebooks enthalten, auf verschiedene Arten angeben. Zum Beispiel die direkte Eingabe eines Namens oder einer ID, die Suche nach einem Asset oder die Verwendung der Ausgabe eines vorherigen Knotens in der Pipeline zum Füllen eines Felds. Sie können auf das Eingabesymbol für ein Feld klicken, um die für das Feld verfügbaren Optionen anzuzeigen. Abhängig vom Kontext können die Optionen Folgendes umfassen:
- Ressource auswählen: Verwenden Sie den Asset-Browser, um ein Asset (z. B. eine Datendatei) zu suchen.
- Pipeline-Parameter zuweisen: Weisen Sie einen Wert zu, indem Sie eine Variable verwenden, die mit einem Pipeline-Parameter konfiguriert ist. Weitere Informationen finden Sie unter Globale Objekte konfigurieren.
- Wählen Sie einen anderen Knoten aus: Verwenden Sie die Ausgabe eines Knotens, der sich früher in der Pipeline befindet, als Wert für dieses Feld.
- Geben Sie den Ausdruck ein: Geben Sie Code ein, um Werte zuzuordnen oder Ressourcen zu identifizieren Weitere Informationen finden Sie unter Elemente kodieren.
Pipelineknoten und Parameter
Konfigurieren Sie die folgenden Typen von Pipelineknoten:
Knoten kopieren
Verwenden Sie Kopieknoten, um Ihrer Pipeline Assets hinzuzufügen oder um Pipeline-Assets zu exportieren.
Ausgewählte Assets aus einem Projekt oder Bereich in einen nicht leeren Bereich kopieren. Sie können die folgenden Assets in einen Bereich kopieren:
AutoAI-Experiment
Codepaketjob
Verbindung
Data Refinery-Ablauf
Data Refinery-Job
Datenasset
Implementierungsjob
Umgebung
Funktion
Job
Modell
Notizbuch
Notebook-Job
Pipeline-Job
Script
Script-Job
SPSS Modeler-Job
Assets kopieren
Eingabeparameter
Parameter | Beschreibung |
---|---|
Quellenassets | Das Quellenasset, das der Liste hinzugefügt werden soll, anzeigen oder suchen. Sie können ein Asset auch mit einem Pipelineparameter, mit der Ausgabe eines anderen Knotens oder durch Eingabe der Asset-ID angeben. |
Ziel | Den Zielbereich anzeigen oder suchen. |
Kopiermodus | Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem der Ablauf versucht, ein Asset zu kopieren, und ein Asset desselben Namens vorhanden ist. Eine der folgenden Optionen: ignore , fail , overwrite |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Ausgabeassets | Liste der kopierten Assets |
Assets exportieren
Exportieren Sie ausgewählte Assets aus dem Geltungsbereich, z. B. einem Projekt- oder Implementierungsbereich. Die Operation exportiert standardmäßig alle Assets. Sie können die Assetauswahl durch Erstellen einer Liste der zu exportierenden Ressourcen begrenzen.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Anlagen | Wählen Sie Bereich aus, um alle exportierbaren Elemente zu exportieren, oder wählen Sie Liste aus, um eine Liste bestimmter zu exportierender Elemente zu erstellen. |
Quellenprojekt oder -bereich | Name des Projekts oder Bereichs, der die zu exportierenden Assets enthält |
Exportierte Datei | Dateiposition zum Speichern der Exportdatei |
Erstellungsmodus (optional) | Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem der Datenfluss versucht, ein Asset zu erstellen, und ein Asset mit demselben Namen vorhanden ist. Eine der folgenden Optionen: ignore , fail , overwrite |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Exportierte Datei | Pfad zur exportierten Datei |
Hinweise:
- Wenn Sie Projektassets exportieren, die ein Notebook enthalten, wird die neueste Version des Notebooks in die Exportdatei eingeschlossen. Wenn die Pipeline mit dem Knoten Notebook-Job ausführen für die Verwendung einer anderen Notebookversion als der neuesten Version konfiguriert wurde, wird die exportierte Pipeline beim Import automatisch für die Verwendung der neuesten Version rekonfiguriert. Dies kann zu unerwarteten Ergebnissen führen oder eine Rekonfiguration nach dem Import erfordern.
- Wenn Assets im exportierten Projekt eigenständig sind, werden sie beibehalten, wenn Sie ein neues Projekt importieren. Andernfalls kann nach einem Import exportierter Assets eine Konfiguration erforderlich sein.
Assets importieren
Importieren Sie Assets aus einer ZIP-Datei, die exportierte Assets enthält.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Pfad zum Importieren des Ziels | Suchen nach den zu importierenden Assets |
Zu importierende Archivdatei | Pfad zu einer ZIP-Datei oder einem Archiv angeben |
Hinweise: Nach dem Import einer Datei werden Pfade und Verweise auf die importierten Assets gemäß den folgenden Regeln aktualisiert:
- Verweise auf Assets aus dem exportierten Projekt oder Bereich werden im neuen Projekt oder Bereich nach dem Import aktualisiert.
- Wenn Assets aus dem exportierten Projekt auf externe Assets verweisen (in einem anderen Projekt enthalten), bleibt der Verweis auf das externe Asset nach dem Import bestehen.
- Wenn das externe Asset nicht mehr vorhanden ist, wird der Parameter durch einen leeren Wert ersetzt und Sie müssen das Feld neu konfigurieren, um auf ein gültiges Asset zu verweisen.
Knoten erstellen
Konfigurieren Sie die Knoten für die Erstellung von Assets in Ihrer Pipeline.
Experiment AutoAI erstellen
Verwenden Sie diesen Knoten, um ein AutoAI -Klassifikations-oder Regressionsexperiment zu trainieren und Pipelines für Modellkandidaten zu generieren.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Name des AutoAI-Experiments | Name des neuen Experiments |
Umfang | Ein Projekt oder ein Bereich, in dem das Experiment erstellt wird |
Vorhersagetyp | Der Typ des Modells für die folgenden Daten: Binär, Klassifikation oder Regression. |
Vorhersagespalte (Bezeichnung) | Der Name der Vorhersagespalte |
Positive Klasse (optional) | Geben Sie eine positive Klasse für ein Experiment für binäre Klassifizierung an. |
Teilungsverhältnis für Trainingsdaten (optional) | Der Prozentsatz der Daten, die vom Training zurückgehalten und zum Testen der Pipelines verwendet werden sollen (Float: 0,0 - 1,0) |
Einzuschließende Algorithmen (optional) | Liste der zu verwendenden Schätzer begrenzen (die Liste hängt vom Lerntyp ab) |
Zu verwendende Algorithmen | Geben Sie die Liste der zu verwendenden Schätzer an (die Liste hängt vom Lerntyp ab). |
Metrik optimieren (optional) | Die für die Modelleinstufung verwendete Metrik. |
Hardwarespezifikation (optional) | Hardwarespezifikation für das Experiment angeben |
AutoAI-Experimentbeschreibung | Beschreibung des Experiments |
AutoAI -Experimenttags (optional) | Tags zur Identifizierung des Experiments |
Erstellungsmodus (optional) | Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem die Pipeline versucht, ein Experiment zu erstellen, und einer mit demselben Namen vorhanden ist. Eine der folgenden Optionen: ignore , fail , overwrite |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
AutoAI-Experiment | Pfad zum gespeicherten Modell |
AutoAI-Zeitreihenexperiment erstellen
Verwenden Sie diesen Knoten, um ein AutoAI -Zeitreihenexperiment zu trainieren und Pipelines für Modellkandidaten zu generieren.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Name des AutoAI -Zeitreihenexperiments | Name des neuen Experiments |
Umfang | Ein Projekt oder ein Bereich, in dem die Pipeline erstellt werden soll. |
Vorhersagespalten (Beschriftung) | Der Name einer oder mehrerer Vorhersagespalten |
Datums-/Zeitspalte (optional) | Name der Datums-/Uhrzeitspalte |
Zukünftige Werte von unterstützenden Merkmalen nutzen | Wählen Sie "True" aus, um die Berücksichtigung für die Unterstützung (exogene) Merkmale zur Verbesserung der Vorhersage zu aktivieren. Fügen Sie beispielsweise eine Temperaturfunktion für die Vorhersage des Eisverkaufs ein. |
Unterstützende Features (optional) | Unterstützende Funktionen auswählen und zur Liste hinzufügen |
Imputationsmethode (optional) | Verfahren zum Imputieren fehlender Werte in einem Dataset auswählen |
Imputationsschwellenwert (optional) | Geben Sie einen höheren Schwellenwert für den Prozentsatz der fehlenden Werte für die angegebene Imputationsmethode an. Wenn der Schwellenwert überschritten wird, schlägt das Experiment fehl. Wenn Sie beispielsweise angeben, dass 10% der Werte imputiert werden können und im Dataset 15% der Werte fehlen, schlägt das Experiment fehl. |
Füllungstyp | Geben Sie an, wie die angegebene Imputationsmethode Nullwerte auffüllt. Geben Sie einen Mittelwert aller Werte und Median aller Werte an oder geben Sie einen Füllwert an. |
Füllwert (optional) | Wenn Sie ausgewählt haben, einen Wert zum Ersetzen von Nullwerten anzugeben, geben Sie den Wert in dieses Feld ein. |
Endgültiges Trainingsdataset | Wählen Sie aus, ob abschließende Pipelines nur mit den Trainingsdaten oder mit Trainingsdaten und Holdout-Daten trainiert werden sollen. Wenn Sie Trainingsdaten auswählen, enthält das generierte Notebook eine Zelle zum Abrufen von Holdout-Daten |
Holdout-Größe (optional) | Wenn Sie Trainingsdaten in Trainings-und Holdout-Daten aufteilen, geben Sie einen Prozentsatz der Trainingsdaten an, die als Holdout-Daten für die Validierung der Pipelines reserviert werden. Holdout-Daten überschreiten nicht ein Drittel der Daten. |
Anzahl Rücktests (optional) | Passen Sie die Backtests an, um Ihr Zeitreihenexperiment zu überprüfen. |
Lückenlänge (optional) | Passen Sie die Anzahl der Zeitpunkte zwischen dem Trainingsdataset und dem Validierungsdataset für jeden Backtest an. Wenn der Parameterwert ungleich null ist, werden die Zeitreihenwerte in der Lücke nicht verwendet, um das Experiment zu trainieren oder den aktuellen Backtest auszuwerten. |
Lookback-Fenster (optional) | Ein Parameter, der angibt, wie viele vorherige Zeitreihenwerte zur Vorhersage des aktuellen Zeitpunkts verwendet werden. |
Prognosefenster (optional) | Der Bereich, den Sie auf der Basis der Daten im Lookback-Fenster vorhersagen möchten |
Einzuschließende Algorithmen (optional) | Liste der zu verwendenden Schätzer begrenzen (die Liste hängt vom Lerntyp ab) |
Pipelines zum Ausführen | Passen Sie optional die Anzahl der zu erstellenden Pipelines an. Mehr Pipelines erhöhen die Trainingszeit und die Ressourcen. |
Hardwarespezifikation (optional) | Hardwarespezifikation für das Experiment angeben |
AutoAI -Beschreibung des Zeitreihenexperiments (optional) | Beschreibung des Experiments |
AutoAI -Experimenttags (optional) | Tags zur Identifizierung des Experiments |
Erstellungsmodus (optional) | Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem die Pipeline versucht, ein Experiment zu erstellen, und einer mit demselben Namen vorhanden ist. Eine der folgenden Optionen: ignore , fail , overwrite |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
AutoAI -Zeitreihenexperiment | Pfad zum gespeicherten Modell |
Batchbereitstellung erstellen
Mit diesem Knoten können Sie eine Batchbereitstellung für ein Modell für maschinelles Lernen erstellen.
Eingabeparameter
Parameter | Beschreibung |
---|---|
ML-Asset | Name oder ID des bereitzustellenden Machine Learning-Assets. |
Neuer Implementierungsname (optional) | Name des neuen Jobs mit optionaler Beschreibung und optionalen Tags. |
Erstellungsmodus (optional) | Vorgehensweise zum Verarbeiten eines Falls, bei dem die Pipeline versucht, einen Job zu erstellen, und einer mit demselben Namen vorhanden ist Eine der folgenden Optionen: ignore , fail , overwrite |
Neue Implementierungsbeschreibung (optional) | Beschreibung der Bereitstellung |
Neue Implementierungstags (optional) | Tags zur Identifizierung der Bereitstellung |
Hardwarespezifikation (optional) | Hardwarespezifikation für den Job angeben |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Neue Implementierung | Pfad der neu erstellten Bereitstellung |
Datenasset erstellen
Mit diesem Knoten können Sie ein Datenasset erstellen.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Datei | Pfad zur Datei in einem Dateispeicher |
Zielbereich | Pfad zum Zielbereich oder -projekt |
Name (optional) | Name der Datenquelle mit optionaler Beschreibung, Herkunftsland und Tags |
Beschreibung (optional) | Beschreibung für die Anlage |
Ursprungsland (optional) | Ursprungsland für Datenbestimmungen |
Tags (optional) | Tags zur Identifizierung von Assets |
Erstellungsmodus | Vorgehensweise zum Verarbeiten eines Falls, bei dem die Pipeline versucht, einen Job zu erstellen, und einer mit demselben Namen vorhanden ist Eine der folgenden Optionen: ignore , fail , overwrite |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Datenasset | Das neu erstellte Datenasset |
Bereitstellungsbereich erstellen
Verwenden Sie diesen Knoten zum Erstellen und Konfigurieren eines Bereichs, den Sie zum Organisieren und Erstellen von Bereitstellungen verwenden können.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Name des neuen Bereichs | Name des neuen Bereichs mit optionaler Beschreibung und optionalen Tags. |
Neue Space-Tags (optional) | Tags zur Identifizierung des Bereichs |
Neue CRN für COS-Bereichsinstanz | CRN der COS-Serviceinstanz |
Neuer Speicherplatz-WML-Instanz-CRN (optional) | CRN der watsonx.ai Runtime-Dienstinstanz |
Erstellungsmodus (optional) | Vorgehensweise zum Verarbeiten eines Falls, bei dem die Pipeline versucht, einen Bereich zu erstellen, und einer mit demselben Namen vorhanden ist Eine der folgenden Optionen: ignore , fail , overwrite |
Bereichsbeschreibung (optional) | Beschreibung des Bereichs |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Bereich | Pfad des neu erstellten Bereichs |
Onlinebereitstellung erstellen
Mit diesem Knoten können Sie eine Onlineimplementierung erstellen, in der Sie Testdaten direkt an einen REST-API-Endpunkt eines Web-Service übergeben können.
Eingabeparameter
Parameter | Beschreibung |
---|---|
ML-Asset | Name oder ID des bereitzustellenden Machine Learning-Assets. |
Neuer Implementierungsname (optional) | Name des neuen Jobs mit optionaler Beschreibung und optionalen Tags. |
Erstellungsmodus (optional) | Vorgehensweise zum Verarbeiten eines Falls, bei dem die Pipeline versucht, einen Job zu erstellen, und einer mit demselben Namen vorhanden ist Eine der folgenden Optionen: ignore , fail , overwrite |
Neue Implementierungsbeschreibung (optional) | Beschreibung der Bereitstellung |
Neue Implementierungstags (optional) | Tags zur Identifizierung der Bereitstellung |
Hardwarespezifikation (optional) | Hardwarespezifikation für den Job angeben |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Neue Implementierung | Pfad der neu erstellten Bereitstellung |
Warten
Verwenden Sie Knoten, um eine Pipeline anzuhalten, bis ein Asset an der im Pfad angegebenen Position verfügbar ist.
Verwenden Sie diesen Knoten, um zu warten, bis alle Ergebnisse der vorherigen Knoten in der Pipeline verfügbar sind, damit die Pipeline fortgesetzt werden kann.
Dieser Knoten verwendet keine Eingaben und erzeugt keine Ausgabe. Wenn die Ergebnisse alle verfügbar sind, wird die Pipeline automatisch fortgesetzt.
Auf alle Ergebnisse warten
Verwenden Sie diesen Knoten, um zu warten, bis ein Ergebnis von den vorherigen Knoten in der Pipeline verfügbar wird, damit die Pipeline fortgesetzt werden kann. Führen Sie die nachgeordneten Knoten aus, sobald eine der vorgeordneten Bedingungen erfüllt ist.
Dieser Knoten verwendet keine Eingaben und erzeugt keine Ausgabe. Wenn Ergebnisse verfügbar sind, wird die Pipeline automatisch fortgesetzt.
Auf Ergebnis warten
Warten Sie, bis ein Asset an der Position erstellt oder aktualisiert wird, die im Pfad von einem früheren Job oder Prozess in der Pipeline angegeben ist. Geben Sie eine Zeitlimitlänge an, die auf die Erfüllung der Bedingung gewartet werden soll. Wenn 00:00:00 die angegebene Zeitlimitlänge ist, wartet der Nachrichtenfluss unbegrenzt.
Auf Datei warten
Eingabeparameter
Parameter | Beschreibung |
---|---|
Dateiposition | Geben Sie die Position im Asset-Browser an, an der sich die Anlage befindet. Verwenden Sie das Format data_asset/filename , wobei der Pfad relativ zum Stammverzeichnis ist. Die Datei muss vorhanden sein und sich an der angegebenen Position befinden. Andernfalls schlägt der Knoten mit einem Fehler fehl. |
Wartemodus | Standardmäßig ist der Modus so eingestellt, dass die Datei angezeigt wird. Sie können zum Warten auf das Verschwinden der Datei wechseln |
Zeitlimitlänge (optional) | Geben Sie die Wartezeit an, bevor Sie mit der Pipeline fortfahren. Verwenden Sie das Format hh:mm:ss |
Fehlerrichtlinie (optional) | Siehe Fehlerbehandlung. |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Rückgabewert | Rückgabewert vom Knoten |
Ausführungsstatus | Gibt den Wert "Abgeschlossen", "Mit Warnungen abgeschlossen", "Mit Fehlern abgeschlossen", "Fehlgeschlagen" oder "Abgebrochen" zurück. |
Statusnachricht | Nachricht, die dem Status zugeordnet ist |
Steuerknoten
Steuern Sie die Pipeline durch Hinzufügen von Fehlerbehandlung und Logik.
Schleifen sind ein Knoten in einer Pipeline, der wie eine codierte Schleife funktioniert.
Die beiden Schleifentypen sind parallel und sequenziell.
Sie können Schleifen verwenden, wenn die Anzahl der Iterationen für eine Operation dynamisch ist. Wenn Sie beispielsweise die Anzahl der zu verarbeitenden Notebooks nicht kennen oder die Anzahl der Notebooks zur Laufzeit auswählen möchten, können Sie eine Schleife verwenden, um die Liste der Notebooks zu durchlaufen.
Sie können auch eine Schleife verwenden, um durch die Ausgabe eines Knotens oder durch Elemente in einem Datenarray zu iterieren.
Schleifen parallel
Fügen Sie der Pipeline ein paralleles Schleifenkonstrukt hinzu. Eine parallele Schleife führt die iterierenden Knoten unabhängig und möglicherweise gleichzeitig aus.
Um beispielsweise ein Modell für maschinelles Lernen mit einer Gruppe von Hyperparametern zu trainieren, um den leistungsfähigsten Benutzer zu finden, können Sie eine Schleife verwenden, um eine Liste von Hyperparametern zu iterieren, um die Notebook-Variationen parallel zu trainieren. Die Ergebnisse können später im Ablauf verglichen werden, um das beste Notebook zu finden.
Eingabeparameter beim Iterieren von Listentypen
Parameter | Beschreibung |
---|---|
Listeneingabe | Der Parameter Listeneingabe enthält zwei Felder, den Datentyp der Liste und den Listeninhalt, über den die Schleife iteriert, oder einen Standardlink zur Pipelineeingabe oder -ausgabe. |
Parallelität | Maximale Anzahl gleichzeitig auszuführender Tasks. Muss größer als null sein |
Eingabeparameter beim Iterieren von Zeichenfolgetypen
Parameter | Beschreibung |
---|---|
Texteingabe | Textdaten, aus denen die Schleife liest |
Trennzeichen | Ein Zeichen, das zum Aufteilen des Textes verwendet wird |
Parallelität (optional) | Maximale Anzahl gleichzeitig auszuführender Tasks. Muss größer als null sein |
Wenn der Typ des Eingabe-Array-Elements JSON oder ein Typ ist, der als solcher dargestellt wird, kann dieses Feld es als Wörterverzeichnis zerlegen. Schlüssel sind die ursprünglichen Elementschlüssel und Werte sind die Aliasnamen für Ausgabenamen.
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Kontrolle Pause Knoten-ID | Enthält die Knoten-ID des Terminator-Knotens, an dem der Knoten beendet wurde, ansonsten leer |
Ausführungsstatus | Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen |
Statusnachricht | Informationen zum Status des Jobs |
Schleifen in Folge
Fügen Sie ein sequenzielles Schleifenkonstrukt zur Pipeline hinzu. Schleifen können über einen numerischen Bereich, eine Liste oder Text mit einem Begrenzer iterieren.
Ein Anwendungsfall für sequenzielle Schleifen ist, wenn Sie eine Operation 3 Mal versuchen möchten, bevor Sie feststellen, ob eine Operation fehlgeschlagen ist.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Listeneingabe | Der Parameter Listeneingabe enthält zwei Felder, den Datentyp der Liste und den Listeninhalt, über den die Schleife iteriert, oder einen Standardlink zur Pipelineeingabe oder -ausgabe. |
Texteingabe | Textdaten, aus denen die Schleife liest. Geben Sie ein Zeichen an, um den Text zu teilen. |
Bereich | Geben Sie den Start, das Ende und optional einen Schritt an, über den ein Bereich iteriert werden soll. Der Standardschritt ist 1. |
Nachdem Sie den iterativen Schleifenbereich konfiguriert haben, definieren Sie einen Subpipelineablauf innerhalb der Schleife, der ausgeführt werden soll, bis die Schleife abgeschlossen ist. Sie kann beispielsweise Notebook, Script oder anderen Ablauf pro Iteration aufrufen.
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Kontrolle Pause Knoten-ID | Enthält die Knoten-ID des Terminator-Knotens, an dem der Knoten beendet wurde, ansonsten leer |
Ausführungsstatus | Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen |
Statusnachricht | Informationen zum Status des Jobs |
Schleife beenden
In einem Prozessablauf mit paralleler oder sequenzieller Schleife können Sie einen Knoten Pipeline beenden hinzufügen, um den Schleifenprozess jederzeit zu beenden. Sie müssen Ihre eigenen Bedingungen für die Beendigung festlegen. In den Knoten können Sie den Status der Schleife bei Beendigung entweder als Vollständig oder Fehlschlag angeben. Dadurch wird sichergestellt, dass Sie die Schleife abschließen und trotzdem die Bedingungen für das Scheitern des Schleifenknotens erfüllen können und entweder mit der Pipeline fortfahren oder andere Aktionen durchführen können.
Benutzervariablen festlegen
Konfigurieren Sie eine Benutzervariable mit einem Schlüssel/Wert-Paar, und fügen Sie anschließend die Liste der dynamischen Variablen für diesen Knoten hinzu.
Weitere Informationen zum Erstellen einer Benutzervariablen finden Sie unter Globale Objekte konfigurieren.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Ihren Namen | Geben Sie den Namen oder den Schlüssel für die Variable ein |
Eingabetyp | Wählen Sie Ausdruck oder Pipelineparameter als Eingabetyp aus. |
- Verwenden Sie für Ausdrücke den integrierten Expression Builder, um eine Variable zu erstellen, die aus einem angepassten Ausdruck resultiert.
- Weisen Sie für Pipelineparameter einen Pipelineparameter zu und verwenden Sie den Parameterwert als Eingabe für die Benutzervariable.
Pipeline beenden
Sie können die Beendigung einer Pipeline mit einem Knoten "Pipeline beenden" aus der Kategorie "Steuerung" einleiten und steuern. Wenn der Fehlerablauf ausgeführt wird, können Sie optional angeben, wie Notebook-oder Trainingsjobs verarbeitet werden sollen, die von Knoten in der Pipeline eingeleitet wurden. Sie müssen angeben, ob auf die Beendigung von Jobs gewartet werden soll, ob die Jobs abgebrochen werden sollen und ob die Pipeline gestoppt werden soll oder ob alle Jobs ohne Abbruch gestoppt werden sollen. Geben Sie die Optionen für den Knoten "Pipeline beenden" an.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Abschlussmodus (optional) | Wählen Sie das Verhalten für den Fehlerfluss aus |
Der Terminator-Modus kann Folgendes auslösen:
- Pipelineausführung und alle aktiven Jobs beenden stoppt alle Jobs und die Pipeline.
- Alle aktiven Jobs abbrechen und Pipeline beenden bricht alle aktiven Jobs ab, bevor die Pipeline gestoppt wird.
- Pipelineausführung nach Abschluss der Ausführung von Jobs beenden wartet, bis aktive Jobs beendet sind, und stoppt dann die Pipeline.
- Pipeline beenden, die ohne Stoppen von Jobs ausgeführt wird stoppt die Pipeline, ermöglicht jedoch die Fortsetzung der Ausführung von Jobs.
Knoten aktualisieren
Verwenden Sie Aktualisierungsknoten zum Ersetzen oder Aktualisieren von Assets, um die Leistung zu verbessern. Wenn Sie beispielsweise Ihre Tags standardisieren wollen, können Sie mit einer Aktualisierung einen Tag durch einen neuen Tag ersetzen.
Aktualisieren Sie die Trainingsdetails für ein AutoAI -Experiment.
AutoAI-Experiment aktualisieren
Eingabeparameter
Parameter | Beschreibung |
---|---|
AutoAI-Experiment | Pfad zu einem Projekt oder einem Bereich, in dem sich das Experiment befindet |
Name des AutoAI -Experiments (optional) | Name des zu aktualisierenden Experiments mit optionaler Beschreibung und optionalen Tags. |
Beschreibung des Experiments AutoAI (optional) | Beschreibung des Experiments |
AutoAI -Experimenttags (optional) | Tags zur Identifizierung des Experiments |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
AutoAI-Experiment | Pfad des aktualisierten Experiments |
Batchbereitstellung aktualisieren
Verwenden Sie diese Parameter zum Aktualisieren einer Batchbereitstellung.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Bereitstellung | Pfad zu der Bereitstellung, die aktualisiert werden soll. |
Neuer Name für die Implementierung (optional) | Name oder ID der Implementierung, die aktualisiert werden soll |
Neue Beschreibung für die Implementierung (optional) | Beschreibung der Bereitstellung |
Neue Tags für die Implementierung (optional) | Tags zur Identifizierung der Bereitstellung |
ML-Asset | Name oder ID des bereitzustellenden Machine Learning-Assets. |
Hardwarespezifikation | Hardwarespezifikation für den Job aktualisieren |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Bereitstellung | Pfad der aktualisierten Bereitstellung |
Bereitstellungsbereich aktualisieren
Aktualisieren Sie die Details für einen Bereich.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Bereich | Pfad des vorhandenen Bereichs |
Bereichsname (optional) | Bereichsnamen aktualisieren |
Bereichsbeschreibung (optional) | Beschreibung des Bereichs |
Space-Tags (optional) | Tags zur Identifizierung des Bereichs |
WML-Instanz (optional) | Geben Sie eine neue Machine Learning -Instanz an |
WML-Instanz | Geben Sie eine neue Machine Learning-Instanz an. Anmerkung: Auch wenn Sie einen anderen Namen für eine Instanz in der Benutzerschnittstelle zuweisen, lautet der Systemname Machine Learning instance. Unterscheidung zwischen verschiedenen Instanzen mithilfe des Instanz-CRN |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Bereich | Pfad des aktualisierten Bereichs |
Online-Implementierung aktualisieren
Verwenden Sie diese Parameter, um eine Online-Implementierung (Web-Service) zu aktualisieren.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Bereitstellung | Pfad der vorhandenen Bereitstellung |
Implementierungsname (optional) | Bereitstellungsnamen aktualisieren |
Implementierungsbeschreibung (optional) | Beschreibung der Bereitstellung |
Implementierungstags (optional) | Tags zur Identifizierung der Bereitstellung |
Asset (optional) | Erneut bereitzustellendes Machine Learning-Asset (oder Version) |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Bereitstellung | Pfad der aktualisierten Bereitstellung |
Knoten löschen
Konfigurieren Sie Parameter für Löschoperationen.
Löschen
Sie können Folgendes löschen:
- AutoAI-Experiment
- Batchbereitstellung
- Bereitstellungsbereich
- Onlinebereitstellung
Wählen Sie für jedes Element das zu löschende Asset aus.
Ausführungsknoten
Verwenden Sie diese Knoten, um ein Experiment zu trainieren, ein Script auszuführen oder einen Datenfluss auszuführen.
AutoAI-Experiment ausführen
Trainiert und speichert AutoAI -Experiment -Pipelines und -Modelle.
Eingabeparameter
Parameter | Beschreibung |
---|---|
AutoAI-Experiment | Suchen Sie nach dem Asset der ML-Pipeline, oder rufen Sie das Experiment von einem Pipelineparameter oder von der Ausgabe eines vorherigen Knotens ab. |
Trainingsdatenasset | Die Daten zum Trainieren des Experiments anzeigen oder suchen. Beachten Sie, dass Sie Daten zur Laufzeit mithilfe eines Pipelineparameters bereitstellen können. |
Holdout-Datenasset (optional) | Wählen Sie optional eine separate Datei aus, die für Holdout-Daten zum Testen der Modellleistung verwendet werden soll. |
Modellanzahl (optional) | Angeben, wie viele Modelle der Pipelines mit der besten Leistung gespeichert werden sollen. Der Grenzwert beträgt 3 Modelle |
Ausführungsname (optional) | Name des Experiments und optionale Beschreibung und Tags. |
Präfix für Modellnamen (optional) | Präfix für die Benennung trainierter Modelle. Standardwert: < (Experimentname) > |
Ausführungsbeschreibung (optional) | Beschreibung des neuen Trainingslaufs |
Tags ausführen (optional) | Tags für neuen Trainingslauf |
Erstellungsmodus (optional) | Wählen Sie aus, wie ein Fall behandelt werden soll, bei dem der Pipelineablauf versucht, ein Asset zu erstellen, und ein Asset mit demselben Namen vorhanden ist. Eine der folgenden Optionen: ignore , fail , overwrite |
Fehlerrichtlinie (optional) | Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten. |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Modelle | Liste der Pfade des höchsten N trainierten und als persistent definierten Modells (sortiert nach ausgewählter Auswertungsmetrik) |
Bestes Modell | Pfad des besten Modells (auf der Basis der ausgewählten Auswertungsmetrik) |
Modellmetriken | Eine Liste der trainierten Modellmetriken (jedes Element ist ein verschachteltes Objekt mit Metriken wie holdout_precision, holdout_average_precision, ...) |
Siegermodellmetrik | Ausgewählte Auswertungsmetrik des Siegermodells. |
Optimierte Metrik | Zum Optimieren des Modells verwendete Metrik. |
Ausführungsstatus | Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen |
Statusnachricht | Informationen zum Status des Jobs |
Ein Script ausführen
Führen Sie ein integriertes Bash-Script aus, um eine Funktion oder einen Prozess für die Pipeline zu automatisieren. Sie können den Bash-Script-Code manuell eingeben oder das Bash-Script aus einer Ressource, einem Pipelineparameter oder der Ausgabe eines anderen Knotens importieren.
Sie können auch ein Bash-Script verwenden, um große Ausgabedateien zu verarbeiten. Sie können beispielsweise eine große, durch Kommas getrennte Liste generieren, die Sie dann mithilfe einer Schleife iterieren können.
Im folgenden Beispiel hat der Benutzer den Inline-Script-Code manuell eingegeben. Das Script verwendet das Tool cpdctl
, um alle Notebooks mit einem festgelegten Variablentag zu durchsuchen und die Ergebnisse in einer JSON-Liste zu aggregieren. Die Liste kann dann in einem anderen Knoten verwendet werden, z. B. zum Ausführen der Notebooks, die von der Suche zurückgegeben werden.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Inline-Script-Code | Geben Sie ein Bash-Script im integrierten Codeeditor ein. Optional: Alternativ können Sie eine Ressource auswählen, einen Pipelineparameter zuweisen oder einen anderen Knoten auswählen. |
Umgebungsvariablen (optional) | Geben Sie einen Variablennamen (den Schlüssel) und einen Datentyp an und fügen Sie sie der Liste der Variablen hinzu, die im Script verwendet werden sollen. |
Laufzeittyp (optional) | Wählen Sie Standalone-Laufzeit verwenden (Standardeinstellung) oder eine gemeinsam genutzte Laufzeit aus. Verwenden Sie eine gemeinsam genutzte Laufzeit für Tasks, die in gemeinsam genutzten Pods ausgeführt werden müssen. |
Fehlerrichtlinie (optional) | Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten. |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Ausgabevariablen | Konfigurieren Sie für jede benutzerdefinierte Variable ein Schlüssel/Wert-Paar und klicken Sie anschließend auf die Schaltfläche Hinzufügen, um die Liste der dynamischen Variablen für den Knoten zu füllen. |
Rückgabewert | Rückgabewert vom Knoten |
Standardausgabe | Standardausgabe des Scripts |
Standardfehler | Standardfehlernachricht aus dem Script |
Ausführungsstatus | Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen |
Statusnachricht | Nachricht, die dem Status zugeordnet ist |
Regeln für Bash-Scriptausgabe
Die Ausgabe für ein Bash-Script ist häufig das Ergebnis eines berechneten Ausdrucks und kann groß sein. Wenn Sie die Eigenschaften für ein Script mit einer gültigen großen Ausgabe überprüfen, können Sie die Ausgabe in einem Viewer voranzeigen oder herunterladen.
Diese Regeln regeln, welcher Typ von großer Ausgabe gültig ist.
- Die Ausgabe eines
list_expression
s ist ein berechneter Ausdruck, daher ist sie eine große Ausgabe. - Die Zeichenfolgeausgabe wird als Literalwert und nicht als berechneter Ausdruck behandelt. Daher muss sie den Größenbegrenzungen entsprechen, die Inlineausdrücke regeln. Beispiel: Sie werden gewarnt, wenn ein Literalwert 1 KB überschreitet und Werte von 2 KB und höher zu einem Fehler führen.
- Sie können Standardfehlernachrichten in Ihre Standardausgabe (
standard_output
) einschließen und anzeigen, beispielsweise mit der FunktionGetCommandOutput
.
Auf eine Variable in einem Bash-Script verweisen
Wie Sie in einem Script auf eine Variable verweisen, hängt davon ab, ob die Variable als Eingabevariable oder als Ausgabevariable erstellt wurde. Ausgabevariablen werden als Datei erstellt und benötigen einen Dateipfad in der Referenz. Beachten Sie insbesondere Folgendes:
- Eingabevariablen sind mit dem zugeordneten Namen verfügbar
- Für Ausgabevariablennamen muss
_PATH
an den Variablennamen angehängt werden, um anzugeben, dass Werte in die Ausgabedatei geschrieben werden müssen, auf die die Variable{output_name}_PATH
verweist.
Batchbereitstellung ausführen
Konfigurieren Sie diesen Knoten, um ausgewählte Bereitstellungsjobs auszuführen.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Bereitstellung | Suchen Sie nach dem Bereitstellungsjob. |
Eingabedatenassets | Die für den Batch-Job verwendeten Daten angeben. |
Ausgabeasset | Name der Ausgabedatei für die Ergebnisse des Batch-Jobs. Sie können Dateiname auswählen und einen angepassten Dateinamen eingeben oder Datenasset auswählen und ein vorhandenes Asset in einem Bereich auswählen. |
Hardwarespezifikation (optional) | Nach einer Hardwarespezifikation suchen, die für den Job gelten soll |
Fehlerrichtlinie (optional) | Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten. |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Job | Pfad zur Datei mit Ergebnissen aus dem Bereitstellungsjob. |
Jobausführung | ID für den Job |
Ausführungsstatus | Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen |
Statusnachricht | Informationen zum Status des Jobs |
IBM DataStage ist ein Datenintegrationstool zum Entwerfen, Entwickeln und Ausführen von Jobs, die Daten versetzen und transformieren. Führen Sie einen DataStage -Job aus und verwenden Sie die Ausgabe in einem späteren Knoten.
Der folgende Ablauf zeigt beispielsweise einen Run DataStage -Knoten, der Daten aus einem Git -Repository abruft. Wenn der Job erfolgreich ausgeführt wird, führt die Pipeline den nächsten Knoten aus und erstellt einen Bereitstellungsbereich. Wenn der Job fehlschlägt, wird eine Benachrichtigungs-E-Mail ausgelöst und die Schleife wird beendet.
Parameter | Beschreibung |
---|---|
DataStage-Job | Pfad zum DataStage -Job |
Werte für lokale Parameter (optional) | Bearbeiten Sie die Standardjobparameter. Diese Option ist nur verfügbar, wenn der Job lokale Parameter enthält. |
Werte aus Parametersätzen (optional) | Bearbeiten Sie die von diesem Job verwendeten Parametersätze. Sie können die Parameter wie standardmäßig definiert verwenden oder Wertegruppen aus den Parametern anderer Pipelines verwenden. |
Umgebung | Suchen Sie die Umgebung, die für die Ausführung des Jobs DataStage verwendet wird, und wählen Sie sie aus. Achtung: Lassen Sie das Feld 'environments' unverändert, damit die DataStage -XS-Standardlaufzeit verwendet wird. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
|
Umgebungsvariablen (optional) | Einen Variablennamen (Schlüssel) und einen Datentyp angeben und zur Liste der Variablen hinzufügen, die im Job verwendet werden sollen |
Jobparameter (optional) | Zusätzlicher Parameter, der an den Job übergeben wird, wenn er ausgeführt wird. Geben Sie ein Schlüssel/Wert-Paar an und fügen Sie es der Liste hinzu. Hinweis: Wenn der lokale Parameter
DSJobInvocationId verwendet wird, wird dieser Wert als Jobname im Jobdetaildashboard übergeben. |
Fehlerrichtlinie (optional) | Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten. |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Job | Pfad zu den Ergebnissen des Jobs DataStage |
Jobausführung | Informationen zur Jobausführung |
Jobname | Name des Jobs |
Ausführungsstatus | Informationen zum Status des Jobs: Anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen |
Statusnachricht | Informationen zum Status des Jobs |
Data Refinery-Job ausführen
Dieser Knoten führt einen angegebenen Data Refinery -Job aus.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Data Refinery-Job | Pfad zum Job Data Refinery . |
Umgebung | Pfad der Umgebung, in der der Job ausgeführt wird Achtung: Lassen Sie das Feld 'environments' unverändert, damit die Standardlaufzeit verwendet wird. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Komponentensprache und der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
|
Fehlerrichtlinie (optional) | Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten. |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Job | Pfad zu den Ergebnissen aus dem Data Refinery-Job |
Jobausführung | Informationen zur Jobausführung |
Jobname | Name des Jobs |
Ausführungsstatus | Informationen zum Status des Flusses: anstehend, gestartet, beendet, abgebrochen oder mit Fehlern fehlgeschlagen |
Statusnachricht | Informationen zum Status des Datenflusses |
Notebook-Job ausführen
Verwenden Sie diese Konfigurationsoptionen, um anzugeben, wie ein Jupyter Notebook in einer Pipeline ausgeführt werden soll.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Notebook-Job | Pfad zum Notebook-Job. |
Umgebung | Pfad der Umgebung, die zum Ausführen des Notebooks verwendet wird Achtung: Lassen Sie das Feld "Umgebungen" unverändert, um die Standardumgebung zu verwenden. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Notebooksprache und der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
|
Umgebungsvariablen (optional) | Liste der Umgebungsvariablen, die zum Ausführen des Notebook-Jobs verwendet werden |
Fehlerrichtlinie (optional) | Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten. |
Hinweise:
- Umgebungsvariablen, die Sie in einer Pipeline definieren, können nicht für Notebook-Jobs verwendet werden, die Sie außerhalb von Orchestrierungspipelines ausführen.
- Sie können ein Notebook aus einem Codepaket in einem regulären Paket ausführen.
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Job | Pfad zu den Ergebnissen des Notebook-Jobs |
Jobausführung | Informationen zur Jobausführung |
Jobname | Name des Jobs |
Ausgabevariablen | Konfigurieren Sie ein Schlüssel/Wert-Paar für jede benutzerdefinierte Variable und klicken Sie anschließend auf Hinzufügen , um die Liste der dynamischen Variablen für den Knoten zu füllen |
Ausführungsstatus | Informationen zum Status der Ausführung: anstehend, gestartet, ausgeführt, beendet, abgebrochen oder mit Fehlern fehlgeschlagen |
Statusnachricht | Informationen zum Status des ausgeführten Notizbuchs |
"Pipelines"-Komponente ausführen
Führen Sie eine wiederverwendbare Pipelinekomponente aus, die mit einem Python -Script erstellt wurde. Weitere Informationen finden Sie unter Angepasste Komponente erstellen.
- Wenn eine Pipelinekomponente verfügbar ist, wird beim Konfigurieren des Knotens eine Liste der verfügbaren Komponenten angezeigt.
- Die von Ihnen ausgewählte Komponente gibt die Eingabe und Ausgabe für den Knoten an.
- Nachdem Sie einem Knoten eine Komponente zugewiesen haben, kann die Komponente weder gelöscht noch geändert werden. Sie müssen den Knoten löschen und einen neuen erstellen.
Pipeline-Job ausführen
Fügen Sie eine Pipeline hinzu, um einen verschachtelten Pipelinejob als Teil einer übergeordneten Pipeline auszuführen. Auf diese Weise können wiederverwendbare Prozesse mehreren Pipelines hinzugefügt werden. Sie können die Ausgabe einer verschachtelten Pipeline verwenden, die als Eingabe für einen Knoten in der übergeordneten Pipeline ausgeführt wird.
Eingabeparameter
Parameter | Beschreibung |
---|---|
Pipeline-Job | Wählen Sie einen Pfad zu einem vorhandenen Pipelines-Job aus oder geben Sie ihn ein. |
Umgebung (optional) | Wählen Sie die Umgebung aus, in der der Pipelines-Job ausgeführt werden soll, und ordnen Sie Umgebungsressourcen zu. Achtung: Lassen Sie das Feld 'environments' unverändert, damit die Standardlaufzeit verwendet wird. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Komponentensprache und der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
|
Name der Jobausführung (optional) | Ein Standardjobausführungsname wird verwendet, es sei denn, Sie überschreiben ihn, indem Sie einen angepassten Jobausführungsnamen angeben. Der Name der Jobausführung wird im Dashboard Jobdetails angezeigt. |
Werte für lokale Parameter (optional) | Bearbeiten Sie die Standardjobparameter. Diese Option ist nur verfügbar, wenn der Job lokale Parameter enthält. |
Werte aus Parametersätzen (optional) | Bearbeiten Sie die von diesem Job verwendeten Parametersätze. Sie können die Parameter wie standardmäßig definiert verwenden oder Wertegruppen aus den Parametern anderer Pipelines verwenden. |
Fehlerrichtlinie (optional) | Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten. |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Job | Pfad zu den Ergebnissen des Pipelinejobs |
Jobausführung | Informationen zur Jobausführung |
Jobname | Name des Jobs |
Ausführungsstatus | Gibt den Wert "Abgeschlossen", "Mit Warnungen abgeschlossen", "Mit Fehlern abgeschlossen", "Fehlgeschlagen" oder "Abgebrochen" zurück. |
Statusnachricht | Nachricht, die dem Status zugeordnet ist |
Hinweise zur Ausführung verschachtelter Pipelinejobs
Wenn Sie eine Pipeline mit verschachtelten Pipelines erstellen und einen Pipelinejob von der höchsten Ebene ausführen, werden die Pipelines benannt und als Projektassets gespeichert, die diese Konvention verwenden:
- Der Pipeline-Job der höchsten Ebene hat den Namen "Testjob- Pipeline-GUID".
- Alle nachfolgenden Jobs werden "pipeline_ pipeline guid" genannt.
SPSS Modeler-Job ausführen
Verwenden Sie diese Konfigurationsoptionen, um festzulegen, wie ein SPSS Modeler in einer Pipeline ausgeführt werden soll.
Eingabeparameter
Parameter | Beschreibung |
---|---|
SPSS Modeler-Job | Wählen Sie einen Pfad zu einem vorhandenen SPSS Modeler -Job aus oder geben Sie einen Pfad ein. |
Umgebung (optional) | Wählen Sie die Umgebung aus, in der der Job SPSS Modeler ausgeführt werden soll, und weisen Sie Umgebungsressourcen zu. Achtung: Lassen Sie das Feld 'environments' unverändert, damit die Standardlaufzeitumgebung SPSS Modeler verwendet wird. Wenn Sie das Überschreiben auswählen, geben Sie eine alternative Umgebung für die Ausführung des Jobs an. Stellen Sie sicher, dass jede von Ihnen angegebene Umgebung mit der Hardwarekonfiguration kompatibel ist, um einen Laufzeitfehler zu vermeiden.
|
Werte für lokale Parameter | Bearbeiten Sie die Standardjobparameter. Diese Option ist nur verfügbar, wenn der Job lokale Parameter enthält. |
Fehlerrichtlinie (optional) | Optional: Überschreiben Sie die Standardfehlerrichtlinie für den Knoten. |
Ausgabeparameter
Parameter | Beschreibung |
---|---|
Job | Pfad zu den Ergebnissen des Pipelinejobs |
Jobausführung | Informationen zur Jobausführung |
Jobname | Name des Jobs |
Ausführungsstatus | Gibt den Wert "Abgeschlossen", "Mit Warnungen abgeschlossen", "Mit Fehlern abgeschlossen", "Fehlgeschlagen" oder "Abgebrochen" zurück. |
Statusnachricht | Nachricht, die dem Status zugeordnet ist |
Weitere Informationen
Übergeordnetes Thema: Pipeline erstellen