0 / 0
Torna alla versione inglese della documentazione
Configurazione dei nodi pipeline
Ultimo aggiornamento: 28 nov 2024
Configurazione dei nodi pipeline

Configura i nodi della tua pipeline per specificare gli input e per creare gli output come parte della tua pipeline.

Specifica dell'ambito dello spazio di lavoro

Per impostazione predefinita, l'ambito per una pipeline è il progetto che contiene la pipeline. È possibile specificare esplicitamente un ambito diverso da quello predefinito, per individuare un asset utilizzato nella pipeline. L'ambito è il progetto, il catalogo o lo spazio che contiene l'asset. Dall'interfaccia utente, è possibile ricercare l'ambito.

Modifica della modalità di input

Quando si configura un nodo, è possibile specificare qualsiasi risorsa che include dati e notebook in vari modi. Ad esempio, immettendo direttamente un nome o un ID, ricercando un asset o utilizzando l'output di un nodo precedente nella pipeline per popolare un campo. Per vedere quali opzioni sono disponibili per un campo, fare clic sull'icona di input per il campo. A seconda del contesto, le opzioni possono includere:

  • Selezionare la risorsa: utilizzare il browser di asset per trovare un asset come un file di dati.
  • Assegna parametro della pipeline: assegna un valore utilizzando una variabile configurata con un parametro della pipeline. Per ulteriori informazioni, vedere Configurazione di oggetti globali.
  • Selezionare da un altro nodo: utilizzare l'output da un nodo precedente nella pipeline come valore per questo campo.
  • Immettere l'espressione: immettere il codice per assegnare i valori o identificare le risorse. Per ulteriori informazioni, consultare Elementi di codifica.

Parametri e nodi pipeline

Configurare i seguenti tipi di nodi pipeline:

Copia nodi

Utilizzare i nodi Copia per aggiungere asset alla pipeline o per esportare gli asset della pipeline.

Copiare gli asset selezionati da un progetto o uno spazio in uno spazio non vuoto. È possibile copiare questi asset in uno spazio:

  • Esperimento AutoAI

  • Lavoro pacchetto codice

  • Connessione

  • Flusso Data Refinery

  • Lavoro Data Refinery

  • Asset di dati

  • lavoro di distribuzione

  • Ambiente

  • Funzione

  • Lavoro

  • Modello

  • Blocco appunti

  • Lavoro Notebook

  • Lavoro pipeline

  • Script:

  • Lavoro script

  • Lavoro SPSS Modeler

Copia asset

Parametri di input

Parametro Descrizione
Asset origine Sfoglia o cerca l'asset di origine da aggiungere all'elenco. È anche possibile specificare un asset con un parametro della pipeline, con l'output di un altro nodo o immettendo l'ID asset
Destinazione Sfoglia o cerca lo spazio di destinazione
Modo copia Scegliere come gestire un caso in cui il flusso tenta di copiare un asset ed esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite

Parametri di output

Parametro Descrizione
Asset di output Elenco di asset copiati

Esporta asset

Esportare gli asset selezionati dall'ambito, ad esempio, un progetto o uno spazio di distribuzione. Per impostazione predefinita, l'operazione esporta tutti gli asset. È possibile limitare la selezione degli asset creando un elenco di risorse da esportare.

Parametri di input

Parametro Descrizione
Asset Scegliere Ambito per esportare tutti gli elementi esportabili oppure scegliere Elenco per creare un elenco di elementi specifici da esportare
Progetto o spazio di origine Il nome del progetto o dello spazio che contiene gli asset da esportare
File esportato Ubicazione file per la memorizzazione del file di esportazione
Modalità di creazione (facoltativo) Scegliere come gestire un caso in cui il flusso tenta di creare un asset ed esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite

Parametri di output

Parametro Descrizione
File esportato Percorso del file esportato

Note:

  • Se si esportano gli asset del progetto che contengono un notebook, l'ultima versione del notebook viene inclusa nel file di esportazione. Se la pipeline con il nodo Esegui lavoro notebook è stata configurata per utilizzare una versione del notebook diversa dalla versione più recente, la pipeline esportata viene automaticamente riconfigurata per utilizzare la versione più recente quando viene importata. Ciò potrebbe produrre risultati imprevisti o richiedere una riconfigurazione dopo l'importazione.
  • Se gli asset sono contenuti in modo autonomo nel progetto esportato, vengono conservati quando si importa un nuovo progetto. In caso contrario, potrebbe essere richiesta una configurazione in seguito a un'importazione di asset esportati.

Importa asset

Importare gli asset da un file ZIP che contiene gli asset esportati.

Parametri di input

Parametro Descrizione
Percorso della destinazione dell'importazione Sfoglia o cerca gli asset da importare
File di archivio da importare Specificare il percorso di un file ZIP o di un archivio

Note: dopo aver importato un file, i percorsi e i riferimenti agli asset importati vengono aggiornati, attenendosi alle seguenti regole:

  • I riferimenti agli asset dal progetto o dallo spazio esportato vengono aggiornati nel nuovo progetto o spazio dopo l'importazione.
  • Se gli asset del progetto esportato fanno riferimento ad asset esterni (inclusi in un progetto differente), il riferimento all'asset esterno persisterà dopo l'importazione.
  • Se l'asset esterno non esiste più, il parametro viene sostituito con un valore vuoto ed è necessario riconfigurare il campo in modo che punti ad un asset valido.

Crea nodi

Configurare i nodi per la creazione di asset nella pipeline.

Crea esperimento AutoAI

Utilizzare questo nodo per addestrare un esperimento di classificazione o di regressioneAutoAI e generare pipeline candidate al modello.

Parametri di input

Parametro Descrizione
Nome esperimento AutoAI Nome del nuovo esperimento
Ambito Un progetto o uno spazio in cui verrà creato l'esperimento
Tipo di previsione Il tipo di modello per i seguenti dati: binario, classificazione o regressione
Colonna di previsione (etichetta) Il nome della colonna di previsione
Classe positiva (facoltativa) Specificare una classe positiva per un esperimento di classificazione binaria
Rapporto di suddivisione dei dati di addestramento (facoltativo) La percentuale di dati da trattenere dall'addestramento e utilizzare per verificare le pipeline (float: 0.0 - 1.0)
Algoritmi da includere (facoltativo) Limita l'elenco degli stimatori da utilizzare (l'elenco dipende dal tipo di apprendimento)
Algoritmi da utilizzare Specificare l'elenco di stimatori da utilizzare (l'elenco dipende dal tipo di apprendimento)
Ottimizza metrica (facoltativo) La metrica utilizzata per la classificazione del modello
Specifica hardware (facoltativo) Specificare una specifica hardware per l'esperimento
Descrizione dell'esperimento AutoAI Descrizione dell'esperimento
Tag di esperimento AutoAI (facoltativo) Tag per identificare l'esperimento
Modalità di creazione (facoltativo) Scegliere come gestire un caso in cui la pipeline tenta di creare un esperimento e ne esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite

Parametri di output

Parametro Descrizione
Esperimento AutoAI Percorso del modello salvato

Crea esperimento di serie temporali AutoAI

Utilizzare questo nodo per addestrare un esperimento di serie temporali AutoAI e generare pipeline candidate al modello.

Parametri di input

Parametro Descrizione
Nome dell'esperimento della serie temporale AutoAI Nome del nuovo esperimento
Ambito Un progetto o uno spazio in cui verrà creata la pipeline
Colonne di previsione (etichetta) Il nome di una o più colonne di previsione
Colonna data/ora (facoltativo) Nome della colonna data/ora
Sfrutta i valori futuri delle funzioni di supporto Scegliere "True" per abilitare la considerazione per le funzioni di supporto (esogene) per migliorare la previsione. Ad esempio, includere una funzione di temperatura per prevedere le vendite di gelati.
Funzioni di supporto (facoltativo) Scegliere le funzioni di supporto e aggiungerle all'elenco
Metodo di assegnazione (facoltativo) Scegliere una tecnica per assegnare i valori mancanti in un dataset
Soglia di assegnazione (facoltativo) Specificare una soglia più alta per la percentuale di valori mancanti da fornire con il metodo di assegnazione specificato. Se la soglia viene superata, l'esperimento non riesce. Ad esempio, se si specifica che il 10% dei valori può essere assegnato e nel dataset manca il 15% dei valori, l'esperimento ha esito negativo.
Tipo di riempimento Specificare in che modo il metodo di assegnazione specificato riempie i valori null. Scegliere di fornire una media di tutti i valori e la mediana di tutti i valori oppure specificare un valore di riempimento.
Valore di riempimento (facoltativo) Se si è scelto di specificare un valore per la sostituzione di valori null, immettere il valore in questo campo.
Set di dati di addestramento finale Scegliere se addestrare le pipeline finali solo con i dati di training o con i dati di training e di holdout. Se si scelgono i dati di addestramento, il notebook generato include una cella per richiamare i dati di holdout
Dimensione holdout (facoltativo) Se si stanno suddividendo i dati di training in dati di training e holdout, specificare una percentuale dei dati di training da riservare come dati di holdout per la convalida delle pipeline. I dati di holdout non superano un terzo dei dati.
Numero di backtest (facoltativo) Personalizza i backtest per la convalida incrociata dell'esperimento di serie temporali
Lunghezza spazio (facoltativo) Regolare il numero di punti temporali tra il dataset di addestramento e il data set di convalida per ogni backtest. Quando il valore del parametro è diverso da zero, i valori delle serie temporali nello scarto non vengono utilizzati per addestrare l'esperimento o valutare il backtest corrente.
Finestra Lookback (facoltativo) Un parametro che indica quanti valori di serie temporali precedenti vengono utilizzati per prevedere il punto temporale corrente.
Finestra Previsione (facoltativo) L'intervallo che si desidera prevedere in base ai dati nella finestra retrospettiva.
Algoritmi da includere (facoltativo) Limita l'elenco degli stimatori da utilizzare (l'elenco dipende dal tipo di apprendimento)
Pipeline da completare Facoltativamente, modificare il numero di pipeline da creare. Più pipeline aumentano i tempi di formazione e le risorse.
Specifica hardware (facoltativo) Specificare una specifica hardware per l'esperimento
Descrizione dell'esperimento della serie temporale AutoAI (facoltativo) Descrizione dell'esperimento
Tag di esperimento AutoAI (facoltativo) Tag per identificare l'esperimento
Modalità di creazione (facoltativo) Scegliere come gestire un caso in cui la pipeline tenta di creare un esperimento e ne esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite

Parametri di output

Parametro Descrizione
Esperimento di serie temporali AutoAI Percorso del modello salvato

Crea distribuzione batch

Utilizzare questo nodo per creare una distribuzione batch per un modello di machine learning.

Parametri di input

Parametro Descrizione
Asset di ML Nome o ID dell'asset di machine learning da distribuire
Nuovo nome distribuzione (facoltativo) Nome del nuovo lavoro, con descrizione e tag facoltativi
Modalità di creazione (facoltativo) Come gestire un caso in cui la pipeline tenta di creare un lavoro e ne esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite
Nuova descrizione di distribuzione (facoltativo) Descrizione della distribuzione
Nuove tag di distribuzione (facoltativo) Tag per l'identificazione della distribuzione
Specifica hardware (facoltativo) Specificare una specifica hardware per il lavoro

Parametri di output

Parametro Descrizione
Nuova distribuzione Percorso della distribuzione appena creata

Crea asset di dati

Utilizzare questo nodo per creare un asset di dati.

Parametri di input

Parametro Descrizione
File Percorso del file in un archivio file
Ambito di destinazione Percorso dello spazio o del progetto di destinazione
Nome (facoltativo) Nome dell'origine dati con descrizione facoltativa, paese di origine e tag
Descrizione (facoltativa) Descrizione dell'asset
Paese di origine (facoltativo) Paese di origine per le normative sui dati
Tag (facoltativo) Tag per identificare gli asset
Modalità di creazione Come gestire un caso in cui la pipeline tenta di creare un lavoro e ne esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite

Parametri di output

Parametro Descrizione
Asset di dati L'asset di dati appena creato

Crea spazio di distribuzione

Utilizzare questo nodo per creare e configurare uno spazio che è possibile utilizzare per organizzare e creare distribuzioni.

Parametri di input

Parametro Descrizione
Nuovo nome spazio Nome del nuovo spazio con descrizione e tag facoltativi
Nuove tag di spazio (facoltativo) Tag per identificare lo spazio
Nuovo CRN istanza COS spazio CRN dell'istanza del servizio COS
Nuovo CRN istanza WML spazio (facoltativo) CRN dell'istanza del servizio watsonx.ai Runtime
Modalità di creazione (facoltativo) Come gestire un caso in cui la pipeline tenta di creare uno spazio e ne esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite
Descrizione spazio (facoltativo) Descrizione dello spazio

Parametri di output

Parametro Descrizione
Spazio Percorso dello spazio appena creato

Crea la distribuzione online

Utilizzare questo nodo per creare una distribuzione in linea in cui è possibile inoltrare i dati di test direttamente a un endpoint API REST del servizio Web.

Parametri di input

Parametro Descrizione
Asset di ML Nome o ID dell'asset di machine learning da distribuire
Nuovo nome distribuzione (facoltativo) Nome del nuovo lavoro, con descrizione e tag facoltativi
Modalità di creazione (facoltativo) Come gestire un caso in cui la pipeline tenta di creare un lavoro e ne esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite
Nuova descrizione di distribuzione (facoltativo) Descrizione della distribuzione
Nuove tag di distribuzione (facoltativo) Tag per l'identificazione della distribuzione
Specifica hardware (facoltativo) Specificare una specifica hardware per il lavoro

Parametri di output

Parametro Descrizione
Nuova distribuzione Percorso della distribuzione appena creata

Attesa

Utilizzare i nodi per sospendere una pipeline fino a quando un asset è disponibile nell'ubicazione specificata nel percorso.

Utilizzare questo nodo per attendere che tutti i risultati dei nodi precedenti nella pipeline siano disponibili in modo che la pipeline possa continuare.

Questo nodo non utilizza input e non produce output. Quando i risultati sono tutti disponibili, la pipeline continua automaticamente.

Attendi tutti i risultati

Utilizzare questo nodo per attendere che qualsiasi risultato dei nodi precedenti nella pipeline sia disponibile in modo che la pipeline possa continuare. Eseguire i nodi downstream non appena viene soddisfatta una delle condizioni upstream.

Questo nodo non utilizza input e non produce output. Quando sono disponibili dei risultati, la pipeline continua automaticamente.

Attendi un qualsiasi risultato

Attendere la creazione o l'aggiornamento di un asset nella collocazione specificata nel percorso da un lavoro o processo precedente nella pipeline. Specificare una lunghezza di timeout per attendere che la condizione venga soddisfatta. Se 00:00:00 è la lunghezza di timeout specificata, il flusso attende indefinitamente.

Attendi file

Parametri di input

Parametro Descrizione
Ubicazione file Specificare l'ubicazione nel browser dell'asset in cui si trova l'asset. Utilizzare il formato data_asset/filename in cui il percorso è relativo alla root. Il file deve esistere e deve trovarsi nell'ubicazione specificata oppure il nodo ha esito negativo con un errore.
Modalità di attesa Per impostazione predefinita, la modalità è per il file da visualizzare. È possibile passare all'attesa della scomparsa del file
Lunghezza timeout (facoltativo) Specificare il periodo di attesa prima di procedere con la pipeline. Utilizzare il formato hh:mm:ss
Politica di errore (facoltativo) Consultare Gestione degli errori

Parametri di output

Parametro Descrizione
Valore di ritorno Valore di ritorno dal nodo
Stato di esecuzione Restituisce il valore: Completato, Completato con avvertenze, Completato con errori, Non riuscito o Annullato
Messaggio di stato Messaggio associato allo stato

Nodi di controllo

Controllare la pipeline aggiungendo la logica e la gestione degli errori.

I loop sono un nodo in una pipeline che funziona come un loop codificato.

I due tipi di loop sono paralleli e sequenziali.

È possibile utilizzare i loop quando il numero di iterazioni per un'operazione è dinamico. Ad esempio, se non si conosce il numero di notebook da elaborare o si desidera scegliere il numero di notebook al runtime, è possibile utilizzare un loop per iterare l'elenco di notebook.

È anche possibile utilizzare un loop per eseguire l'iterazione attraverso l'output di un nodo o attraverso elementi in un array di dati.

Attenzione: La cache non viene trasferita in modo sequenziale tra le iterazioni del ciclo in una pipeline. I risultati della prima iterazione vengono utilizzati solo nella prima iterazione dell'esecuzione successiva.

Loop in parallelo

Aggiungere un costrutto di loop parallelo alla pipeline. Un loop parallelo esegue i nodi di iterazione indipendentemente e possibilmente simultaneamente.

Ad esempio, per preparare un modello di machine learning con una serie di iperparametri per trovare il miglior esecutore, è possibile utilizzare un loop per eseguire l'iterazione su un elenco di iperparametri per addestrare le variazioni del notebook in parallelo. I risultati possono essere confrontati successivamente nel flusso per trovare il notebook migliore.

Parametri di input durante l'iterazione dei tipi di elenco

Parametro Descrizione
Elenca input Il parametro Input elenco contiene due campi, il tipo di dati dell'elenco e il contenuto dell'elenco su cui il loop esegue l'iterazione o un link standard all'input della pipeline o all'output della pipeline.
Parallelismo Numero massimo di attività da eseguire contemporaneamente. Deve essere maggiore di zero

Parametri di input durante l'iterazione dei tipi String

Parametro Descrizione
Input di testo Dati di testo da cui il loop legge
Separatore Un carattere utilizzato per dividere il testo
Parallelismo (facoltativo) Numero massimo di attività da eseguire contemporaneamente. Deve essere maggiore di zero

Se il tipo di elemento array di input è JSON o qualsiasi tipo rappresentato come tale, questo campo potrebbe decomporlo come dizionario. Le chiavi sono le chiavi dell'elemento originale e i valori sono gli alias per i nomi di output.

Parametri di output

Parametro Descrizione
Controllo Interruzione ID nodo Contiene l'ID del nodo terminatore su cui il nodo è terminato, altrimenti è vuoto
Stato di esecuzione Informazioni sullo stato del lavoro: in sospeso, in avvio, in esecuzione, completato, annullato o non riuscito con errori
Messaggio di stato Informazioni sullo stato del lavoro

Loop in sequenza

Aggiungere un costrutto loop sequenziale alla pipeline. I loop possono essere iterati su un intervallo numerico, un elenco o un testo con un delimitatore.

Un caso di utilizzo per i loop sequenziali è se si desidera tentare un'operazione 3 volte prima di determinare se un'operazione non è riuscita.

Parametri di input

Parametro Descrizione
Elenca input Il parametro Input elenco contiene due campi, il tipo di dati dell'elenco e il contenuto dell'elenco su cui il loop esegue l'iterazione o un link standard all'input della pipeline o all'output della pipeline.
Input di testo Dati di testo da cui legge il loop. Specificare un carattere per dividere il testo.
Intervallo Specificare il passo iniziale, finale e facoltativo per un intervallo da iterare. Il passo predefinito è 1.

Dopo aver configurato l'intervallo iterativo del loop, definire un flusso di pipeline secondaria all'interno del loop da eseguire fino a quando il loop non è completo. Ad esempio, può richiamare notebook, script o altri flussi per iterazione.

Parametri di output

Parametro Descrizione
Controllo Interruzione ID nodo Contiene l'ID del nodo terminatore su cui il nodo è terminato, altrimenti è vuoto
Stato di esecuzione Informazioni sullo stato del lavoro: in sospeso, in avvio, in esecuzione, completato, annullato o non riuscito con errori
Messaggio di stato Informazioni sullo stato del lavoro

Termina loop

In un flusso di processi di loop sequenziali o paralleli, è possibile aggiungere un nodo Termina pipeline per terminare il processo di loop in qualsiasi momento. È necessario personalizzare le condizioni di disdetta. Nei nodi, è possibile modificare lo stato del ciclo quando termina come Completo o Fallimento. In questo modo si garantisce la possibilità di completare il ciclo e di soddisfare le condizioni di fallimento del nodo del ciclo e di scegliere se continuare con la pipeline o eseguire altre azioni.

Attenzione: se si utilizza il nodo Terminate loop, il loop annulla tutte le attività in corso e termina senza completarne l'iterazione.

Imposta variabili utente

Configurare una variabile utente con una coppia chiave / valore, quindi aggiungere l'elenco di variabili dinamiche per questo nodo.

Per ulteriori informazioni su come creare una variabile utente, consultare Configurazione di oggetti globali.

Parametri di input

Tabella 1. Parametri di input della variabile utente
Parametro Descrizione
Nome Immettere il nome o la chiave per la variabile
Tipo di input Scegliere il parametro Espressione o Pipeline come tipo di input.
  • Per le espressioni, utilizzare il Builder di espressioni integrato per creare una variabile che risulta da un'espressione personalizzata.
  • Per i parametri della pipeline, assegna un parametro della pipeline e utilizza il valore del parametro come input per la variabile utente.

Termina pipeline

È possibile avviare e controllare la fine di una pipeline con un nodo Terminate pipeline dalla categoria Control. Quando viene eseguito il flusso di errori, puoi facoltativamente specificare come gestire i lavori di preparazione o notebook che sono stati avviati dai nodi nella pipeline. È necessario specificare se attendere il completamento dei lavori, annullare i lavori, quindi arrestare la pipeline o arrestare tutto senza annullare. Specificare le opzioni per il nodo della pipeline Terminate.

Parametri di input

Parametro Descrizione
Modalità terminatore (facoltativo) Scegliere il comportamento per il flusso di errore

La modalità terminatore può essere:

  • Termina l'esecuzione della pipeline e tutti i lavori in esecuzione arresta tutti i lavori e arresta la pipeline.
  • Annulla tutti i lavori in esecuzione e termina la pipeline annulla tutti i lavori in esecuzione prima di arrestare la pipeline.
  • Termina esecuzione pipeline dopo la fine dei job in esecuzione attende il completamento dei job in esecuzione, quindi arresta la pipeline.
  • Termina pipeline eseguita senza arrestare i lavori arresta la pipeline ma consente ai lavori in esecuzione di proseguire.

Aggiorna nodi

Utilizzare i nodi di aggiornamento per sostituire o aggiornare gli asset per migliorare le prestazioni. Ad esempio, se si desidera standardizzare i tag, è possibile eseguire l'aggiornamento per sostituire un tag con un nuovo tag.

Aggiorna i dettagli di addestramento per un esperimento AutoAI.

Aggiorna esperimento AutoAI

Parametri di input

Parametro Descrizione
Esperimento AutoAI Percorso di un progetto o di uno spazio, in cui risiede l'esperimento
Nome esperimento AutoAI (facoltativo) Nome dell'esperimento da aggiornare, con descrizione e tag facoltativi
Descrizione dell'esperimento AutoAI (facoltativo) Descrizione dell'esperimento
Tag di esperimento AutoAI (facoltativo) Tag per identificare l'esperimento

Parametri di output

Parametro Descrizione
Esperimento AutoAI Percorso dell'esperimento aggiornato

Aggiorna distribuzione batch

Utilizzare questi parametri per aggiornare una distribuzione batch.

Parametri di input

Parametro Descrizione
Distribuzione Percorso della distribuzione da aggiornare
Nuovo nome per la distribuzione (facoltativo) Nome o ID della distribuzione da aggiornare
Nuova descrizione per la distribuzione (facoltativa) Descrizione della distribuzione
Nuove tag per la distribuzione (facoltativo) Tag per l'identificazione della distribuzione
Asset di ML Nome o ID dell'asset di machine learning da distribuire
Specifica hardware Aggiornare la specifica hardware per il lavoro

Parametri di output

Parametro Descrizione
Distribuzione Percorso della distribuzione aggiornata

Aggiorna spazio di distribuzione

Aggiorna i dettagli per uno spazio.

Parametri di input

Parametro Descrizione
Spazio Percorso dello spazio esistente
Nome spazio (facoltativo) Aggiorna il nome spazio
Descrizione spazio (facoltativo) Descrizione dello spazio
Tag spazio (facoltativo) Tag per identificare lo spazio
Istanza WML (facoltativo) Specificare una nuova istanza Machine Learning
istanza WML Specificare una nuova istanza Machine Learning . Nota: anche se assegni un nome diverso per un'istanza nella IU, il nome del sistema è Machine Learning instance. Differenziare tra diverse istanze utilizzando il CRN dell'istanza

Parametri di output

Parametro Descrizione
Spazio Percorso dello spazio aggiornato

Aggiorna la distribuzione online

Utilizzare questi parametri per aggiornare una distribuzione in linea (servizio Web).

Parametri di input

Parametro Descrizione
Distribuzione Percorso della distribuzione esistente
Nome distribuzione (facoltativo) Aggiorna il nome della distribuzione
Descrizione distribuzione (facoltativo) Descrizione della distribuzione
Tag di distribuzione (facoltativo) Tag per l'identificazione della distribuzione
Asset (facoltativo) Asset di machine learning (o versione) da ridistribuire

Parametri di output

Parametro Descrizione
Distribuzione Percorso della distribuzione aggiornata

Elimina nodi

Configurare i parametri per le operazioni di eliminazione.

Elimina

È possibile eliminare:

  • Esperimento AutoAI
  • Distribuzione batch
  • Spazio di distribuzione
  • Distribuzione online

Per ciascun item, scegliere l'asset da eliminare.

Esegui nodi

Utilizzare questi nodi per addestrare un esperimento, eseguire uno script o eseguire un flusso di dati.

Esegui esperimento AutoAI

Forma e memorizza i modelli e le pipeline AutoAI experiment .

Parametri di input

Parametro Descrizione
Esperimento AutoAI Ricercare l'asset della pipeline ML o ottenere l'esperimento da un parametro della pipeline o l'output da un nodo precedente.
Asset di dati di addestramento Sfoglia o cerca i dati per addestrare l'esperimento. Si noti che è possibile fornire i dati al runtime utilizzando un parametro pipeline
Asset di dati di holdout (facoltativo) Facoltativamente, scegliere un file separato da utilizzare per i dati di holdout per le prestazioni di testingmodel
Conteggio modelli (facoltativo) Specificare il numero di modelli da salvare dalle pipeline con le prestazioni migliori. Il limite è 3 modelli
Nome esecuzione (facoltativo) Nome dell'esperimento e descrizione e tag facoltativi
Prefisso nome modello (facoltativo) Prefisso utilizzato per denominare i modelli addestrati. Il valore predefinito è < (nome esperimento)>
Descrizione esecuzione (facoltativo) Descrizione della nuova esecuzione di formazione
Esegui tag (facoltativo) Tag per nuova esecuzione di formazione
Modalità di creazione (facoltativo) Scegliere come gestire un caso in cui il flusso della pipeline tenta di creare un asset ed esiste uno con lo stesso nome. Uno tra: ignore, fail, overwrite
Politica di errore (facoltativo) Facoltativamente, sovrascrivere la politica di errore predefinita per il nodo

Parametri di output

Parametro Descrizione
Modelli Elenco dei percorsi del modello N più elevato addestrato e persistente (ordinati per metrica di valutazione selezionata)
Modello migliore Percorso del modello vincente (basato sulla metrica di valutazione selezionata)
Metriche modello un elenco di metriche del modello sottoposto a training (ogni elemento è un oggetto nidificato con metriche come: holdout_accuracy, holdout_average_precision, ...)
Metrica modello vincente metrica di valutazione eletta del modello vincente
Metrica ottimizzata Metrica utilizzata per ottimizzare il modello
Stato di esecuzione Informazioni sullo stato del lavoro: in sospeso, in avvio, in esecuzione, completato, annullato o non riuscito con errori
Messaggio di stato Informazioni sullo stato del lavoro

Esegui script Bash

Eseguire uno script Bash inline per automatizzare una funzione o un processo per la pipeline. È possibile immettere il codice dello script Bash manualmente oppure è possibile importare lo script bash da una risorsa, da un parametro della pipeline o dall'emissione di un altro nodo.

È anche possibile utilizzare uno script Bash per elaborare file di output di grandi dimensioni. Ad esempio, è possibile generare un grande elenco separato da virgole che è possibile iterare utilizzando un loop.

Nel seguente esempio, l'utente ha immesso manualmente il codice script in linea. Lo script utilizza lo strumento cpdctl per ricercare in tutti i notebook con una tag di variabile impostata e aggrega i risultati in un elenco JSON. L'elenco può quindi essere utilizzato in un altro nodo, ad esempio l'esecuzione dei notebook restituiti dalla ricerca.

Esempio di un nodo script bash

Parametri di input

Parametro Descrizione
Codice script inline Immettere uno script Bash nell'editor del codice in linea. Facoltativo: in alternativa, puoi selezionare una risorsa, assegnare un parametro della pipeline o selezionare da un altro nodo.
Variabili di ambiente (facoltativo) Specificare un nome variabile (la chiave) e un tipo di dati e aggiungere all'elenco di variabili da utilizzare nello script.
Tipo di runtime (facoltativo) Selezionare Utilizza runtime autonomo (predefinito) o un runtime condiviso. Utilizzare un runtime condiviso per le attività che richiedono l'esecuzione nei pod condivisi.
Politica di errore (facoltativo) Facoltativamente, sovrascrivere la politica di errore predefinita per il nodo

Parametri di output

Parametro Descrizione
Variabili di output Configurare una coppia chiave / valore per ciascuna variabile personalizzata, quindi fare clic sul pulsante Aggiungi per popolare l'elenco di variabili dinamiche per il nodo
Valore di ritorno Valore di ritorno dal nodo
Output standard Output standard dallo script
Errore standard Messaggio di errore standard dallo script
Stato di esecuzione Informazioni sullo stato del lavoro: in sospeso, in avvio, in esecuzione, completato, annullato o non riuscito con errori
Messaggio di stato Messaggio associato allo stato

Regole per l'output dello script Bash

L'output per uno script Bash è spesso il risultato di un'espressione calcolata e può essere grande. Quando si esaminano le proprietà per uno script con un output di grandi dimensioni valido, è possibile visualizzare l'anteprima o scaricare l'output in un visualizzatore.

Queste regole gestiscono il tipo di output di grandi dimensioni valido.

  • L'output di un list_expression è un'espressione calcolata, quindi è valido un output di grandi dimensioni.
  • L'output della stringa viene trattato come un valore letterale piuttosto che come un'espressione calcolata, quindi deve seguire i limiti di dimensione che gestiscono le espressioni in linea. Ad esempio, si viene avvisati quando un valore letterale supera 1 KB e i valori di 2 KB e superiori risultano in un errore.
  • È possibile includere messaggi di errore standard nell'output standard (standard_output) e visualizzarli, ad esempio con la funzione GetCommandOutput .

Riferimento a una variabile in uno script Bash

Il modo in cui si fa riferimento a una variabile in uno script dipende dal fatto che la variabile sia stata creata come variabile di input o come variabile di output. Le variabili di emissione vengono create come file e richiedono un percorso file nel riferimento. In particolare:

  • Le variabili di input sono disponibili utilizzando il nome assegnato
  • I nomi delle variabili di output richiedono che _PATH sia aggiunto al nome della variabile per indicare che i valori devono essere scritti nel file di output indicato dalla variabile {output_name}_PATH .

Esegui distribuzione batch

Configurare questo nodo per eseguire i lavori di distribuzione selezionati.

Parametri di input

Parametro Descrizione
Distribuzione Sfoglia o cerca il lavoro di distribuzione
Asset di dati di input Specificare i dati utilizzati per il lavoro batch
Asset di output Nome del file di output per i risultati del lavoro batch. È possibile selezionare Nome file e immettere un nome file personalizzato oppure Asset dati e selezionare un asset esistente in uno spazio.
Specifica hardware (facoltativo) Ricercare una specifica hardware da applicare per il lavoro
Politica di errore (facoltativo) Facoltativamente, sovrascrivere la politica di errore predefinita per il nodo

Parametri di output

Parametro Descrizione
Lavoro Percorso del file con i risultati del lavoro di distribuzione
Esecuzione lavoro ID per il lavoro
Stato di esecuzione Informazioni sullo stato del lavoro: in sospeso, in avvio, in esecuzione, completato, annullato o non riuscito con errori
Messaggio di stato Informazioni sullo stato del lavoro
Restrizione: Tutte le opzioni di input e output definite durante la creazione del lavoro batch sono supportate dal nodo Esegui lavoro di distribuzione batch. Ciò include l'indicazione di più file come input per una soluzione SPSS Modeler o Decision Optimization o l'indicazione di un file JSON come input. Tuttavia, alcune delle opzioni di input e output non possono essere sovrascritte nell'interfaccia del nodo di lavoro di distribuzione batch.

IBM DataStage è uno strumento di integrazione dati per la progettazione, lo sviluppo ed esecuzione di job che spostano e trasformano i dati. Eseguire un job DataStage e utilizzare l'output in un nodo successivo.

Ad esempio, il seguente flusso mostra un nodo Esegui DataStage che richiama i dati da un repository Git . Se il lavoro viene completato correttamente, la pipeline esegue il nodo successivo e crea uno spazio di distribuzione. Se il lavoro ha esito negativo, viene attivata un'e-mail di notifica e il loop viene terminato.

Esecuzione di un job DataStage in una pipeline

Parametro Descrizione
Lavoro DataStage Percorso del job DataStage
Valori per i parametri locali (facoltativo) Modificare i parametri del lavoro predefiniti. Questa opzione è disponibile solo se si dispone di parametri locali nel lavoro.
Valori dalle serie di parametri (facoltativo) Modificare le serie di parametri utilizzate da questo processo. È possibile scegliere di utilizzare i parametri come definiti per impostazione predefinita oppure utilizzare le serie di valori da altri parametri delle pipeline.
Ambiente Trovare e selezionare l'ambiente utilizzato per eseguire il lavoro DataStage .
Attenzione: lasciare il campo degli ambienti invariato per utilizzare il runtime XS DataStage predefinito. Se si sceglie di sovrascrivere, specificare un ambiente alternativo per l'esecuzione del lavoro. Assicurarsi che l'ambiente specificato sia compatibile con la configurazione hardware per evitare un errore di runtime.
Variabili di ambiente (facoltativo) Specificare un nome di variabile (la chiave) e un tipo di dati e aggiungerli all'elenco di variabili da utilizzare nel processo
Parametri del job (facoltativo) Parametro aggiuntivo da passare al processo quando viene eseguito. Specificare una coppia chiave / valore e aggiungere all'elenco.
Nota: se viene utilizzato il parametro locale DSJobInvocationId , tale valore viene passato come nome lavoro nel dashboard dei dettagli del lavoro.
Politica di errore (facoltativo) Facoltativamente, sovrascrivere la politica di errore predefinita per il nodo

Parametri di output

Parametro Descrizione
Lavoro Percorso dei risultati del job DataStage
Esecuzione lavoro Informazioni sull'esecuzione del lavoro
Nome lavoro Nome del lavoro
Stato di esecuzione Informazioni sullo stato del lavoro: in sospeso, in avvio, in esecuzione, completato, annullato o non riuscito con errori
Messaggio di stato Informazioni sullo stato del lavoro

Esegui lavoro Data Refinery

Questo nodo esegue un job Data Refinery specificato.

Parametri di input

Parametro Descrizione
Lavoro Data Refinery Percorso del lavoro Data Refinery .
Ambiente Percorso dell'ambiente utilizzato per eseguire il job
Attenzione: lasciare il campo degli ambienti invariato per utilizzare il runtime predefinito. Se si sceglie di sovrascrivere, specificare un ambiente alternativo per l'esecuzione del lavoro. Assicurarsi che qualsiasi ambiente specificato sia compatibile con la lingua del componente e la configurazione hardware per evitare un errore di runtime.
Politica di errore (facoltativo) Facoltativamente, sovrascrivere la politica di errore predefinita per il nodo

Parametri di output

Parametro Descrizione
Lavoro Percorso dei risultati del lavoro Data Refinery
Esecuzione lavoro Informazioni sull'esecuzione del lavoro
Nome lavoro Nome del lavoro
Stato di esecuzione Informazioni sullo stato del flusso: in sospeso, in avvio, in esecuzione, completato, annullato o non riuscito con errori
Messaggio di stato Informazioni sullo stato del flusso

Esegui lavoro notebook

Utilizzare queste opzioni di configurazione per specificare come eseguire un Jupyter Notebook in una pipeline.

Parametri di input

Parametro Descrizione
Lavoro Notebook Percorso del lavoro notebook.
Ambiente Percorso dell'ambiente utilizzato per eseguire il notebook.
Attenzione: lasciare il campo Ambienti invariato per utilizzare l'ambiente predefinito. Se si sceglie di sovrascrivere, specificare un ambiente alternativo per l'esecuzione del lavoro. Accertarsi che qualsiasi ambiente specificato sia compatibile con la lingua del notebook e la configurazione hardware per evitare un errore di runtime.
Variabili di ambiente (facoltativo) Elenco delle variabili di ambiente utilizzate per eseguire il lavoro notebook
Politica di errore (facoltativo) Facoltativamente, sovrascrivere la politica di errore predefinita per il nodo

Note:

  • Le variabili di ambiente definite in una pipeline non possono essere utilizzate per i lavori notebook eseguiti all'esterno di Orchestration Pipelines.
  • È possibile eseguire un notebook da un pacchetto di codice in un pacchetto regolare.

Parametri di output

Parametro Descrizione
Lavoro Percorso dei risultati del lavoro notebook
Esecuzione lavoro Informazioni sull'esecuzione del lavoro
Nome lavoro Nome del lavoro
Variabili di output Configurare una coppia chiave / valore per ciascuna variabile personalizzata, quindi fare clic su Aggiungi per popolare l'elenco di variabili dinamiche per il nodo
Stato di esecuzione Informazioni sullo stato dell'esecuzione: in sospeso, in fase di avvio, in esecuzione, completata, annullata o non riuscita con errori
Messaggio di stato Informazioni sullo stato di esecuzione del notebook

Esegui componente Pipeline

Eseguire un componente pipeline riutilizzabile creato utilizzando uno script Python . Per ulteriori informazioni, consultare Creazione di un componente personalizzato.

  • Se è disponibile un componente pipeline, la configurazione del nodo presenta un elenco di componenti disponibili.
  • Il componente scelto specifica l'immissione e l'emissione per il nodo.
  • Una volta assegnato un componente ad un nodo, non è possibile eliminare o modificare il componente. È necessario eliminare il nodo e crearne uno nuovo.

Esegui lavoro pipeline

Aggiungere una pipeline per eseguire un lavoro della pipeline nidificata come parte di una pipeline contenente. Questo è un modo di aggiungere processi riutilizzabili a più pipeline. Puoi utilizzare l'output da una pipeline nidificata che viene eseguito come input per un nodo nella pipeline che lo contiene.

Parametri di input

Parametro Descrizione
Lavoro pipeline Selezionare o immettere un percorso per un lavoro Pipeline esistente.
Ambiente (facoltativo) Selezionare l'ambiente in cui eseguire il lavoro Pipelines e assegnare le risorse di ambiente.
Attenzione: lasciare il campo degli ambienti invariato per utilizzare il runtime predefinito. Se si sceglie di sovrascrivere, specificare un ambiente alternativo per l'esecuzione del lavoro. Assicurarsi che qualsiasi ambiente specificato sia compatibile con la lingua del componente e la configurazione hardware per evitare un errore di runtime.
Nome esecuzione lavoro (facoltativo) Viene utilizzato un nome di esecuzione lavoro predefinito a meno che non venga sovrascritto specificando un nome di esecuzione lavoro personalizzato. È possibile vedere il nome di esecuzione del lavoro nel dashboard Dettagli lavoro .
Valori per i parametri locali (facoltativo) Modificare i parametri del lavoro predefiniti. Questa opzione è disponibile solo se si dispone di parametri locali nel lavoro.
Valori dalle serie di parametri (facoltativo) Modificare le serie di parametri utilizzate da questo processo. È possibile scegliere di utilizzare i parametri come definiti per impostazione predefinita oppure utilizzare le serie di valori da altri parametri delle pipeline.
Politica di errore (facoltativo) Facoltativamente, sovrascrivere la politica di errore predefinita per il nodo

Parametri di output

Parametro Descrizione
Lavoro Percorso dei risultati dal lavoro della pipeline
Esecuzione lavoro Informazioni sull'esecuzione del lavoro
Nome lavoro Nome del lavoro
Stato di esecuzione Restituisce il valore: Completato, Completato con avvertenze, Completato con errori, Non riuscito o Annullato
Messaggio di stato Messaggio associato allo stato

Note per l'esecuzione di lavori pipeline nidificati

Se si crea una pipeline con pipeline nidificate ed si esegue un job di pipeline dal livello superiore, le pipeline vengono denominate e salvate come asset di progetto che utilizzano questa convenzione:

  • Il lavoro pipeline di livello superiore è denominato "Lavoro di prova - guid pipeline".
  • All subsequent jobs are named "pipeline_ guid pipeline".

Esegui lavoro SPSS Modeler

Utilizzare queste opzioni di configurazione per specificare come eseguire un SPSS Modeler in una pipeline.

Parametri di input

Parametro Descrizione
Lavoro SPSS Modeler Selezionare o immettere un percorso per un job SPSS Modeler esistente.
Ambiente (facoltativo) Selezionare l'ambiente in cui eseguire il job SPSS Modeler e assegnare le risorse dell'ambiente.
Attenzione: lasciare il campo degli ambienti invariato per utilizzare il runtime predefinito di SPSS Modeler . Se si sceglie di sovrascrivere, specificare un ambiente alternativo per l'esecuzione del lavoro. Assicurarsi che l'ambiente specificato sia compatibile con la configurazione hardware per evitare un errore di runtime.
Valori per parametri locali Modificare i parametri del lavoro predefiniti. Questa opzione è disponibile solo se si dispone di parametri locali nel lavoro.
Politica di errore (facoltativo) Facoltativamente, sovrascrivere la politica di errore predefinita per il nodo

Parametri di output

Parametro Descrizione
Lavoro Percorso dei risultati dal lavoro della pipeline
Esecuzione lavoro Informazioni sull'esecuzione del lavoro
Nome lavoro Nome del lavoro
Stato di esecuzione Restituisce il valore: Completato, Completato con avvertenze, Completato con errori, Non riuscito o Annullato
Messaggio di stato Messaggio associato allo stato

Ulteriori informazioni

Argomento principale: Creazione di una pipeline

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni