È possibile orchestrare un flusso end-to-end di risorse, dalla creazione alla distribuzione, su una tela grafica con l'editor Pipelines. È possibile assemblare e configurare una pipeline per creare, addestrare, distribuire e aggiornare i modelli di apprendimento automatico e gli script Python.
Per informazioni sulle regioni supportate per Orchestration Pipelines, vedere Limitazioni regionali per Cloud Pak for Data as a Service.
Progettare una pipeline trascinando i nodi sull'area di disegno, specificando oggetti e parametri, quindi eseguire e monitorare la pipeline.
Automatizzare il percorso verso la produzione
L'inserimento di un modello in un prodotto è un processo a più fasi. I dati devono essere caricati ed elaborati, i modelli devono essere addestrati e valutati prima di essere distribuiti e testati. Gli esperimenti di IA, l'analisi dei dati e i modelli di apprendimento automatico richiedono tutti una maggiore osservazione, valutazione e aggiornamento nel tempo per evitare distorsioni o derive.
Il grafico seguente mostra un esempio di ciclo di vita di un modello che è possibile automatizzare tra i molti flussi che si possono creare.
È possibile automatizzare la pipeline per:
- caricare ed elaborare i dati in modo sicuro da un'ampia gamma di fonti interne e connessioni esterne.
- ottenere i risultati desiderati costruendo, eseguendo, valutando e distribuendo modelli o script di esecuzione in modo coeso.
- semplificano l'esecuzione dei percorsi del vostro flusso creando rami e raccogliendo i risultati con visualizzazioni dirette.
Le pipeline possono eseguire esperimenti che includono, ma non si limitano a:
- Esperimenti AutoAI
- Lavori Jupyter Notebook
- Data Refinery posti di lavoro
- SPSS Modeler posti di lavoro
Per ridurre i tempi dalla concezione alla produzione, è possibile assemblare la pipeline e aggiornare e testare rapidamente le modifiche. L'area di disegno Pipeline fornisce strumenti per visualizzare la pipeline, personalizzarla al runtime con le variabili del parametro della pipeline e quindi eseguirla come un lavoro di prova o in base a una pianificazione.
Utilizzate gli strumenti di modifica delle pipeline per una collaborazione più coesa tra un data scientist e un ingegnere ModelOps. Un data scientist può creare e formare un modello. Un ingegnere ModelOps può quindi rendere automatico il processo di formazione, distribuzione e valutazione del modello dopo che è stato pubblicato in un ambiente di produzione.
Casi di utilizzo ed esercitazioni
È possibile includere IBM Orchestration Pipelines nella propria soluzione di data fabric per gestire e automatizzare il ciclo di vita dei dati e dell'IA. Per ulteriori informazioni su come Data Fabric può supportare gli obiettivi e le operazioni di machine learning in modo pratico, consultate Casi d'uso.
- Il caso d'uso di Data Science e MLOps descrive come gestire i dati, costruire una pipeline di creazione e distribuzione di modelli e valutare la correttezza e le prestazioni dei modelli.
- Data science e MLOps tutorial: orchestrazione di una pipeline AI con integrazione dei dati
- Esercitazione di data science e MLOps: orchestrazione di una pipeline AI con monitoraggio del modello
Ulteriori risorse
Per ulteriori informazioni, consulta questo post del blog sull' automazione del ciclo di vita AI con un flusso di pipeline.
Ulteriori informazioni
- Aggiungere una pipeline al proprio progetto e conoscere gli strumenti dell'area di disegno.
- Eseguire la pipeline di esempio integrata per provare a eseguire un flusso di pipeline pratico.
- Creare una pipeline per creare un flusso end-to-end del vostro scenario personalizzato.
- Esecuzione e salvataggio delle pipeline per gestire le pipeline come risorse.