Traduzione non aggiornata
Pianificazione del flusso di lavoro per l'implementazione della soluzione di apprendimento automatico
creato: "2025-03-26 10:21:08 -0700" title: "Pianificazione del flusso di lavoro per una soluzione di apprendimento automatico" fname: " getting-started\plan-workflow-ml.liquid.md "
Quando si dispone di una strategia per la soluzione di apprendimento automatico, è possibile pianificare un flusso di lavoro che contenga le attività da completare.
La tabella seguente elenca le attività di alto livello che è possibile includere nel piano e se ciascuna attività è necessaria, consigliata, opzionale o talvolta necessaria a seconda delle esigenze. Alcuni compiti sono richiesti solo in alcune situazioni, ma sono consigliati per tutte le situazioni.
Attività | Obbligatorio? |
---|---|
Definire un caso d'uso dell'IA | A volte, Consigliato |
Sviluppare flussi di lavoro di governance | Talvolta |
Impostare un progetto | Obbligatorio |
Prepara dati | Talvolta |
Addestrare il modello di apprendimento automatico | Obbligatorio |
Valutare il modello di apprendimento automatico | A volte, Consigliato |
Distribuire la soluzione | Obbligatorio |
Automatizzare le pipeline | Talvolta |
Monitoraggio e manutenzione della soluzione | A volte, Consigliato |
Definizione di un caso d'uso dell'IA
Un caso d'uso dell'IA è costituito da una serie di schede che contengono il lignaggio, la storia e altre informazioni rilevanti sul ciclo di vita di un asset dell'IA come un modello.
La vostra organizzazione potrebbe richiedere di tracciare e documentare la vostra soluzione di IA per motivi di trasparenza o di conformità normativa. Tuttavia, i casi d'uso dell'intelligenza artificiale sono utili anche quando non sono necessari, perché forniscono un modo integrato per tenere traccia dei progressi, delle decisioni e delle metriche relative alla soluzione.
Per creare un caso d'uso dell'intelligenza artificiale, è necessario creare prima un inventario e poi il caso d'uso. Aggiungete data scientist, data engineer e altri utenti coinvolti nella creazione, nel test o nella gestione della vostra soluzione come collaboratori dei casi d'uso.
Imparare a definire un caso d'uso dell'IA
Sviluppo di flussi di lavoro di governance
Un flusso di lavoro di governance impone un processo di revisione e approvazione dei casi d'uso dell'IA e dell'utilizzo dei modelli.
La vostra organizzazione potrebbe richiedere uno o più dei seguenti tipi di flussi di lavoro di governance:
- Flussi di lavoro di governance del rischio dei modelli per approvare i casi d'uso dell'IA, approvare gli eventi del ciclo di vita dei modelli di base, eseguire valutazioni del rischio o automatizzare il monitoraggio delle prestazioni dei modelli.
- Flussi di lavoro per la gestione della conformità normativa per elaborare gli avvisi pubblicati dagli enti normativi.
- Flussi di lavoro per la gestione del rischio operativo per tenere traccia del rischio modello insieme ad altri rischi operativi in tutta l'azienda.
Per impostare un flusso di lavoro di governance, lo si configura nella console di governance.
Imparare a sviluppare i flussi di lavoro della governance
Impostazione di un progetto
Un progetto è uno spazio di lavoro collaborativo in cui le persone lavorano con modelli e dati per raggiungere un obiettivo condiviso.
È necessario un progetto per preparare i dati, eseguire esperimenti e costruire modelli di apprendimento automatico.
Un progetto per una soluzione di apprendimento automatico contiene in genere i seguenti tipi di elementi, aggiunti esplicitamente dai data scientist o dagli ingegneri dell'IA o creati come risultato di un processo:
- Risorse di connessione alle fonti di dati, come ad esempio il luogo in cui vengono memorizzati i dati di addestramento.
- Asset di dati che rappresentano set di dati per l'addestramento dei modelli.
- Quaderni creati dall'utente o generati da processi come l'esecuzione di un esperimento AutoAI.
- Sperimentate e scorrete le risorse create dagli strumenti in esecuzione, come AutoAI, SPSS Modeler, o Decision Optimization.
- Lavori creati dall'esecuzione di risorse negli strumenti.
Avete un progetto sandbox creato automaticamente. Tuttavia, potreste voler creare un progetto con un nome che rifletta il vostro obiettivo. È possibile creare un progetto dalla pagina iniziale o dal menu di navigazione. Aggiungete tutti coloro che volete che lavorino alla soluzione. Si assegna un ruolo a ciascun collaboratore per controllare le sue autorizzazioni nel progetto.
Per saperne di più sulla creazione di progetti
Preparazione dei dati
La preparazione dei dati consiste nel fornire l'accesso ai dati richiesti nel formato e con il livello di qualità necessari alla vostra soluzione.
È necessario fornire i dati di addestramento per il modello di apprendimento automatico. I dati di addestramento devono includere dati etichettati affinché la colonna possa prevedere o classificare con un algoritmo di apprendimento automatico. È inoltre possibile fornire set di dati di holdout non etichettati o set di dati di backtest. Potrebbe essere necessario pulire o modellare i dati per prepararli all'analisi e alla formazione dei modelli.
I dati di addestramento possono essere forniti nei seguenti modi:
- Caricare un file dal sistema locale
- Collegarsi all'origine dati che contiene il set di dati
È possibile preparare i dati con strumenti di preparazione dei dati e poi utilizzarli in altri strumenti, come AutoAI o notebook:
- Caricate i vostri file di dati o collegatevi alle tabelle delle vostre fonti di dati.
- Pulite, modellate e visualizzate i vostri dati con Data Refinery.
- Generate dati tabellari sintetici basati sui dati di produzione o su uno schema di dati personalizzato con Synthetic Data Generator.
È possibile preparare i dati nello stesso strumento con cui si addestra il modello di apprendimento automatico:
- Pulire, trasformare, ridurre, integrare e convalidare i dati all'interno di SPSS Modeler.
- Richiamare le librerie open source e IBM preinstallate o installare e richiamare librerie personalizzate nei notebook.
Per saperne di più sulla preparazione dei dati
Addestrare il modello di apprendimento automatico
Un modello di apprendimento automatico viene addestrato su una serie di dati per sviluppare algoritmi che può utilizzare per analizzare e imparare da nuovi dati.
È possibile sperimentare l'addestramento del modello di apprendimento automatico modificando le condizioni nei seguenti modi:
- Testare diversi algoritmi per adattarli al meglio ai dati
- Selezionare e scalare le caratteristiche per rappresentare al meglio il problema
- Regolazione delle impostazioni degli iperparametri per ottimizzare prestazioni e precisione
Per costruire un modello di apprendimento automatico, si può sperimentare il codice Python nei notebook. Per trovare automaticamente gli algoritmi, le trasformazioni e le impostazioni dei parametri per creare il miglior modello predittivo, eseguire un esperimento di Auto AI per l'apprendimento automatico. Per esplorare i dati, modellare i risultati, provare diversi modelli e indagare le relazioni per trovare informazioni utili, costruite un flusso SPSS Modeler. Per risolvere un problema di ottimizzazione aziendale, costruire un modello Decision Optimization.
Per saperne di più sulla formazione dei modelli di apprendimento automatico
Valutare le risorse di apprendimento automatico
La valutazione di un modello di apprendimento automatico verifica la qualità dell'output del modello per l'insieme di metriche scelte. Alcune metriche si basano sul confronto tra l'output del modello e l'output appropriato fornito nel set di dati di test. Si valuta anche l'efficienza con cui il modello genera le risposte.
La vostra organizzazione potrebbe richiedere valutazioni per la conformità alle normative o alle politiche interne. Tuttavia, le valutazioni sono utili anche quando non sono richieste, perché i punteggi delle metriche possono indicare la qualità della vostra soluzione e potrebbero prevedere una diminuzione della soddisfazione degli utenti quando i punteggi diminuiscono.
Quando si valuta una risorsa AI, è possibile configurare i seguenti fattori:
- La dimensione del campione da testare
- Quali metriche includere
- Il valore di soglia per ogni metrica
Le metriche generali forniscono i seguenti tipi di informazioni sul modello di apprendimento automatico:
- Il rendimento del modello rispetto a un set di test etichettato.
- Se il modello produce risultati distorti.
- Modifiche alla precisione e ai dati.
- L'efficienza con cui il modello elabora le transazioni.
Si visualizzano i risultati attuali e i risultati nel tempo. I risultati di ogni valutazione vengono aggiunti al caso d'uso per il prompt.
Per valutare un modello di apprendimento automatico, aprire la dashboard Insights da Watson OpenScale. Se si esegue un esperimento di apprendimento automatico su AutoAI, i modelli candidati vengono valutati e classificati automaticamente.
Per saperne di più sulla valutazione delle risorse di apprendimento automatico
Implementazione della soluzione
Il deploy di una risorsa la rende disponibile per il test o per l'uso produttivo da parte di un endpoint. Dopo aver creato le distribuzioni, è possibile testarle e gestirle e preparare le risorse per la distribuzione in ambienti di pre-produzione e produzione.
Le distribuzioni vengono create negli spazi di distribuzione, che sono spazi di lavoro separati dai progetti e ai quali è possibile aggiungere un diverso gruppo di collaboratori.
Per distribuire le risorse dei modelli di apprendimento automatico, si promuove la risorsa in uno spazio di distribuzione e si crea una distribuzione che contiene un endpoint. È quindi possibile chiamare l'endpoint dalla propria applicazione. È possibile creare spazi di distribuzione separati per le distribuzioni di test, staging e produzione per supportare il flusso di lavoro ModelOps.
Per saperne di più sulla distribuzione delle risorse AI
Automazione delle pipeline di apprendimento automatico
Dopo aver addestrato e distribuito il modello di apprendimento automatico, è possibile automatizzare il processo di addestramento, distribuzione e valutazione del modello. È possibile confrontare i risultati di più modelli di apprendimento automatico per determinare il migliore. È possibile configurare lo scoring batch automatico su scala.
È possibile configurare una pipeline per eseguire i seguenti compiti:
- Aggiungere asset alla pipeline o esportare asset della pipeline
- Creare o eliminare asset, distribuzioni o spazi di distribuzione
- Aggiungete la gestione degli errori e la logica, come i loop
- Imposta variabili utente
- Sostituire o aggiornare gli asset per migliorare le prestazioni
- Eseguire un lavoro per addestrare un esperimento, eseguire uno script o un flusso di dati
- Specificare le condizioni per l'esecuzione del flusso
- Eseguire uno script scritto dall'utente
Per progettare una pipeline, trascinare i nodi sull'area di disegno dell'editor Pipelines, specificare gli oggetti e i parametri, quindi eseguire e monitorare la pipeline.
Per saperne di più sulle pipeline di apprendimento automatico
Monitoraggio e manutenzione della soluzione
Dopo aver incorporato la soluzione nell'applicazione e averla messa in produzione, è necessario provvedere alla sua manutenzione. È inoltre possibile monitorare le prestazioni del modello. La manutenzione della soluzione può comprendere la riqualificazione del modello di apprendimento automatico con dati recenti. Il monitoraggio della soluzione valuta le prestazioni del modello nell'ambiente di produzione.
L'organizzazione potrebbe richiedere di monitorare la soluzione e garantire che le prestazioni non scendano al di sotto delle soglie specificate.
Per monitorare la soluzione, aprire la distribuzione della soluzione nello spazio di distribuzione e attivare le valutazioni. È possibile utilizzare l'endpoint di registrazione del payload per inviare richieste di punteggio per le valutazioni di correttezza e deriva e utilizzare l'endpoint di registrazione del feedback per fornire dati di feedback per le valutazioni di qualità.
Per saperne di più sul monitoraggio e la manutenzione della soluzione
Argomento principale: Pianificazione di una soluzione di IA generativa