Per trasformare i tuoi processi di business con soluzioni basate sull'intelligenza artificiale, la tua azienda deve integrare sia il machine learning che l'intelligenza artificiale generativa nel tuo framework operativo. watsonx.ai fornisce i processi e le tecnologie per consentire alla tua azienda di sviluppare e distribuire modelli di machine learning e soluzioni AI generative.
Le sfide
Copy link to section
Puoi risolvere le seguenti sfide per la tua azienda utilizzando watsonx.ai: :
Accesso a dati di alta qualità
Le aziende devono fornire un facile accesso ai dati di alta qualità per i team di data science che utilizzano i dati per creare modelli di machine learning.
Operazionalizzazione della creazione e distribuzione del modello di machine learning
Le aziende devono implementare processi ripetibili per sviluppare e implementare in modo rapido ed efficiente i modelli di machine learning negli ambienti di produzione.
Ricerca di risposte con modelli di base
Le aziende devono ottenere informazioni dai dati non strutturati nei documenti.
Esempio: le sfide della Golden Bank
Copy link to section
Seguite la storia della Golden Bank che utilizza watsonx.ai per implementare un processo di valutazione dell'equità nell'approvazione dei mutui. Il team deve:
Preparare i dati per garantire il formato corretto per l'addestramento del modello.
Costruire e distribuire un modello di apprendimento automatico per valutare la correttezza delle previsioni di approvazione dei mutui.
Trovare promozioni simili per i loro concorrenti.
Costruire modelli di prompt per eseguire compiti di generazione e di risposta alle domande.
Ottimizza il modello di fondazione con i dati di riqualificazione per garantire le migliori prestazioni e il miglior rapporto costo-efficacia.
Creare una pipeline per semplificare il processo di riaggiornamento.
Processo
Copy link to section
Per sfruttare watsonx.ai per la tua azienda, la tua organizzazione può seguire questo processo:
Il componente watsonx.ai fornisce gli strumenti e i processi necessari alla tua organizzazione per implementare una soluzione AI.
1. Preparare i dati
Copy link to section
I data scientist possono preparare i propri dataset. I team di data scientist possono aggiungere tali asset di dati a un progetto, dove collaborano per preparare, analizzare e modellare i dati.
Accedere e perfezionare i dati da diverse connessioni origine dati.
Materializzare i dataset risultanti come istantanee nel tempo che potrebbero combinare, unire o filtrare i dati per altri data scientist da analizzare ed esplorare.
È necessario visualizzare i dati quando si desidera modellarli o ripulirli.
Si desidera semplificare il processo di preparazione di grandi quantità di dati non elaborati per l'analisi.
Generare dati tabulari sintetici in base ai dati di produzione o a uno schema di dati personalizzato utilizzando flussi visivi e algoritmi di modellazione.
Si desidera mascherare o imitare i dati di produzione o si desidera generare dati sintetici da un schema dati personalizzato.
Esempio: preparazione dei dati della Golden Bank
Copy link to section
Nel loro progetto, i data scientist perfezionano i dati per prepararli all'addestramento di un modello di machine learning, assicurando che i dati siano nel formato corretto. Gli ingegneri dell'apprendimento automatico utilizzano i dati di formazione strutturati e sequenziali nell'esperimento AutoAI che costruisce le pipeline di modelli.
2. Creare e addestrare modelli di machine learning
Copy link to section
Per ottenere informazioni predittive basate sui tuoi dati, i data scientist, gli analisti di business e gli ingegneri del machine learning possono creare e addestrare modelli di machine learning. I data scientist utilizzano gli strumenti watsonx.ai per creare i modelli AI, garantendo che vengano utilizzati gli algoritmi e le ottimizzazioni corretti per effettuare previsioni che aiutano a risolvere i problemi aziendali.
Utilizzare AutoAI per selezionare automaticamente gli algoritmi, le funzioni di ingegnere, generare i candidati della pipeline e preparare i candidati della pipeline del modello di machine learning.
Quindi, valutare le pipeline classificate e salvare le migliori come modelli di machine learning.
Distribuire i modelli di machine learning addestrati in uno spazio oppure esportare la pipeline di training del modello che si desidera da AutoAI in un notebook per perfezionarla.
Si desidera un modo avanzato e automatizzato per creare rapidamente una buona serie di pipeline di formazione e modelli di machine learning.
Si desidera poter esportare le pipeline generate per perfezionarle.
Utilizzare i notebook e gli script per scrivere il proprio codice di valutazione e di addestramento del modello di progettazione della funzione in Python o R. Utilizzare i dataset di addestramento disponibili nel progetto o le connessioni alle origini dati come database, laghi di dati o archivio oggetti.
Codice con le librerie e i framework open source preferiti.
Vuoi utilizzare le capacità di codifica Python o R per avere il controllo completo del codice utilizzato per creare, addestrare e valutare i modelli di machine learning.
Utilizzare i flussi SPSS Modeler per creare i propri flussi di calcolo del punteggio, valutazione e addestramento del modello di machine learning. Utilizzare i dataset di addestramento disponibili nel progetto o le connessioni alle origini dati come database, laghi di dati o archiviazione oggetti.
Si desidera utilizzare un metodo semplice per esplorare i dati e definire i flussi di calcolo del punteggio, valutazione e addestramento del modello di machine learning.
Prepara dati, importa modelli, risolvi problemi e confronta scenari, visualizza dati, trova soluzioni, produci report e distribuisci modelli di machine learning.
È necessario valutare milioni di possibilità per trovare la soluzione migliore per un problema di analitica prescrittiva.
Formare un modello di machine learning comune che utilizza i dati distribuiti.
Devi addestrare un modello di machine learning senza spostare, combinare o condividere i dati distribuiti in più ubicazioni.
Esempio: creazione e formazione del modello di apprendimento automatico della Golden Bank
Copy link to section
I data scientist di Golden Bank utilizzano AutoAI per costruire un modello di apprendimento automatico che prevede se un cliente acquisterà un prodotto bancario in base a una promozione.
3. Distribuisci modelli
Copy link to section
Quando i membri del team operativo distribuiscono i modelli AI, i modelli di machine learning diventano disponibili per le applicazioni da utilizzare per il calcolo del punteggio e le previsioni per guidare le azioni.
Utilizzare l'interfaccia utente Spazi per distribuire modelli e altri asset dai progetti agli spazi.
Si desidera distribuire modelli e visualizzare informazioni di distribuzione in uno spazio di collaborazione.
Esempio: distribuzione del modello di Golden Bank
Copy link to section
I membri del team operativo della Golden Bank promuovono il modello predittivo dal progetto a uno spazio di distribuzione e quindi creano un modello di distribuzione online. Quindi, testano il modello implementato inserendo dati di prova per prevedere se un cliente acquisterà un prodotto della banca in base alla promozione.
4. Creare un modello di fondazione
Copy link to section
Il tuo team può scrivere codice in un notebook Jupyter o utilizzare l' Prompt Lab, per sviluppare prompt con un modello di base.
Utilizzate il sito Prompt Lab per sperimentare modelli di fondazione diversi. Selezionare diversi modelli di base da richiedere. Salvare e condividere le richieste più efficaci.
Si desidera un'interfaccia utente semplice per esplorare e testare diversi prompt.
Si desidera essere in grado di salvare un modello di prompt o una sessione di prompt come asset di progetto o come esportazione come notebook Jupyter per eseguire ulteriori analisi.
Utilizza i notebook e gli script per richiedere i modelli di base in modo programmatico utilizzando la libreria Python . Il codice può trasformare i dati, regolare i parametri del modello di fondazione, sollecitare i modelli di fondazione e generare output accurati applicando il modello di generazione potenziato dal recupero. Utilizzare i dataset di addestramento disponibili nel progetto o le connessioni a origini dati quali database, laghi di dati o archivio oggetti.
Utilizzare le librerie e i framework open source preferiti.
Vuoi utilizzare la capacità di codifica Python o R per avere il controllo completo sul codice utilizzato per eseguire e valutare la progettazione di prompt.
Esempio: progettazione rapida di Golden Bank
Copy link to section
I team di data scientist e di prompt engineering di Golden Bank lavorano insieme per raccogliere documenti rilevanti da varie fonti online che evidenziano le promozioni disponibili dei concorrenti. I dati sulle promozioni vengono inseriti in un notebook Jupyter per automatizzare la ricerca di articoli di notizie online. Jupyter Notebook utilizza LangChain per suddividere il testo in estrazioni di testo più piccole che possono essere incluse nei prompt. Questa attività garantisce che il token non superi le limitazioni della finestra del token di contesto.
Poi il team utilizza Prompt Lab per creare un modello di prompt per la generazione e un modello di prompt per la risposta alle domande. Per l'attività di generazione, l'obiettivo è generare contenuti e-mail che mettano in evidenza le promozioni della banca. Per il compito di risposta alle domande, l'input e l'output variano in base alle domande e alle risposte, quindi il testo di promozione viene inserito nelle istruzioni.
5. Messa a punto di un modello di fondazione
Copy link to section
Il tuo team può scrivere codice in un notebook Jupyter o utilizzare l' Tuning Studio, per mettere a punto un modello di base. Potresti voler mettere a punto un modello di fondazione per ridurre i costi o migliorare le prestazioni del modello.
Utilizza notebook e script per ottimizzare i modelli di base in modo programmatico utilizzando la libreria Python . Il codice può attivare il processo di ottimizzazione del prompt, distribuire un modello ottimizzato del prompt e dedurre un modello ottimizzato del prompt. Utilizzare i dataset di addestramento disponibili nel progetto o le connessioni a origini dati quali database, laghi di dati o archivio oggetti.
Utilizzare le librerie e i framework open source preferiti.
Si desidera utilizzare le capacità di codifica Python o R per avere il controllo completo sul codice utilizzato per trasformare i dati e quindi ottimizzare e valutare i modelli.
Esempio: ottimizzazione del prompt di Golden Bank
Copy link to section
Il team di ingegneri di Golden Bank mette subito a punto il modello di fondazione utilizzando articoli contenenti ulteriori promozioni. Il team produce un modello di fondazione più piccolo e più economico con lo stesso livello di prestazioni del modello di fondazione originale che hanno selezionato per l'inferenza.
6. Automatizza il ciclo di vita ML
Copy link to section
Il tuo team può automatizzare e semplificare il ciclo di vita di MLOps e AI con Orchestration Pipelines.
Utilizza le pipeline per creare flussi ripetibili e pianificati che automatizzano le pipeline di notebook, Data Refinerye machine learning, dall'inserimento dei dati alla formazione, al test e alla distribuzione del modello.
Si desidera automatizzare alcuni o tutti i passi in un flusso MLOps.
Esempio: ciclo di vita ML automatizzato di Golden Bank
Copy link to section
I data scientist di Golden Bank possono utilizzare le pipeline per automatizzarne il ciclo di vita e i processi per semplificare il processo di riaggiornamento del modello di machine learning.
Prova diversi casi di utilizzo su un sito self - service. Seleziona un caso di utilizzo per provare un'applicazione live creata con watsonx. Gli sviluppatori, accedono alla selezione rapida e alla guida alla costruzione, insieme al codice dell'applicazione di esempio, per accelerare il tuo progetto.