0 / 0
Torna alla versione inglese della documentazione
Pipeline IBM Orchestration
Ultimo aggiornamento: 25 ott 2024
Pipeline IBM Orchestration

È possibile orchestrare un flusso end-to-end di risorse, dalla creazione alla distribuzione, su una tela grafica con l'editor Pipelines. È possibile assemblare e configurare una pipeline per creare, addestrare, distribuire e aggiornare i modelli di apprendimento automatico e gli script Python.

Per informazioni sulle regioni supportate per Orchestration Pipelines, vedere Limitazioni regionali per Cloud Pak for Data as a Service.

Progettare una pipeline trascinando i nodi sull'area di disegno, specificando oggetti e parametri, quindi eseguire e monitorare la pipeline.

Automatizzare il percorso verso la produzione

L'inserimento di un modello in un prodotto è un processo a più fasi. I dati devono essere caricati ed elaborati, i modelli devono essere addestrati e valutati prima di essere distribuiti e testati. Gli esperimenti di IA, l'analisi dei dati e i modelli di apprendimento automatico richiedono tutti una maggiore osservazione, valutazione e aggiornamento nel tempo per evitare distorsioni o derive.

Il grafico seguente mostra un esempio di ciclo di vita di un modello che è possibile automatizzare tra i molti flussi che si possono creare.

Automatizzare il ciclo di vita dell'intelligenza artificiale

È possibile automatizzare la pipeline per:

  • caricare ed elaborare i dati in modo sicuro da un'ampia gamma di fonti interne e connessioni esterne.
  • ottenere i risultati desiderati costruendo, eseguendo, valutando e distribuendo modelli o script di esecuzione in modo coeso.
  • semplificano l'esecuzione dei percorsi del vostro flusso creando rami e raccogliendo i risultati con visualizzazioni dirette.

Le pipeline possono eseguire esperimenti che includono, ma non si limitano a:

  • Esperimenti AutoAI
  • Lavori Jupyter Notebook
  • Data Refinery posti di lavoro
  • SPSS Modeler posti di lavoro

Per ridurre i tempi dalla concezione alla produzione, è possibile assemblare la pipeline e aggiornare e testare rapidamente le modifiche. L'area di disegno Pipeline fornisce strumenti per visualizzare la pipeline, personalizzarla al runtime con le variabili del parametro della pipeline e quindi eseguirla come un lavoro di prova o in base a una pianificazione.

Utilizzate gli strumenti di modifica delle pipeline per una collaborazione più coesa tra un data scientist e un ingegnere ModelOps. Un data scientist può creare e formare un modello. Un ingegnere ModelOps può quindi rendere automatico il processo di formazione, distribuzione e valutazione del modello dopo che è stato pubblicato in un ambiente di produzione.

Casi di utilizzo ed esercitazioni

È possibile includere IBM Orchestration Pipelines nella propria soluzione di data fabric per gestire e automatizzare il ciclo di vita dei dati e dell'IA. Per ulteriori informazioni su come Data Fabric può supportare gli obiettivi e le operazioni di machine learning in modo pratico, consultate Casi d'uso.

Ulteriori risorse

Per ulteriori informazioni, consulta questo post del blog sull' automazione del ciclo di vita AI con un flusso di pipeline.

Ulteriori informazioni

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni