0 / 0
Torna alla versione inglese della documentazione
Caso d'uso IBM watsonx.ai

Caso d'uso IBM watsonx.ai

Per trasformare i tuoi processi di business con soluzioni basate sull'intelligenza artificiale, la tua azienda deve integrare sia il machine learning che l'intelligenza artificiale generativa nel tuo framework operativo. watsonx.ai fornisce i processi e le tecnologie per consentire alla tua azienda di sviluppare e distribuire modelli di machine learning e soluzioni AI generative.

Le sfide

Puoi risolvere le seguenti sfide per la tua azienda utilizzando watsonx.ai: :

Accesso a dati di alta qualità
Le aziende devono fornire un facile accesso ai dati di alta qualità per i team di data science che utilizzano i dati per creare modelli di machine learning.
Operazionalizzazione della creazione e distribuzione del modello di machine learning
Le aziende devono implementare processi ripetibili per sviluppare e implementare in modo rapido ed efficiente i modelli di machine learning negli ambienti di produzione.
Ricerca di risposte con modelli di base
Le aziende devono ottenere informazioni dai dati non strutturati nei documenti.

Esempio: le sfide della Golden Bank

Segui la storia di Golden Bank poiché utilizza watsonx.ai per implementare un processo per analizzare le anomalie delle azioni al fine di aumentare la produttività e aumentare l'accuratezza di un analista delle azioni in investment banking. Il team deve:

  • Preparare i dati di stock per garantire il formato corretto per addestrare il modello.
  • Crea e distribuisci un modello di machine learning per prevedere le anomalie nel prezzo delle azioni.
  • Trova e suddividi gli articoli di notizie sulle date in cui si sono verificate le anomalie.
  • Costruire modelli di prompt per eseguire attività di riepilogo e di risposta alle domande.
  • Ottimizza il modello di base con i dati di riaddestramento per garantire prestazioni e costi ottimali.
  • Creare una pipeline per semplificare il processo di riaggiornamento.

robotica

Per sfruttare watsonx.ai per la tua azienda, la tua organizzazione può seguire questo processo:

  1. Preparare i dati
  2. Crea e addestra modelli
  3. Implementazione di modelli
  4. Richiedi un modello di base
  5. Ottimizzazione di un modello di base
  6. Automatizza il ciclo di vita dell'intelligenza artificiale

Il componente watsonx.ai fornisce gli strumenti e i processi necessari alla tua organizzazione per implementare una soluzione AI.

Immagine che mostra il flusso del caso di uso watsonx.ai

1. Preparare i dati

I data scientist possono preparare i propri dataset. I team di data scientist possono aggiungere tali asset di dati a un progetto, dove collaborano per preparare, analizzare e modellare i dati.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
Data Refinery Accedere e perfezionare i dati da diverse connessioni origine dati.

Materializzare i dataset risultanti come istantanee nel tempo che potrebbero combinare, unire o filtrare i dati per altri data scientist da analizzare ed esplorare.
È necessario visualizzare i dati quando si desidera modellarli o ripulirli.

Si desidera semplificare il processo di preparazione di grandi quantità di dati non elaborati per l'analisi.
Synthetic Data Generator Generare dati tabulari sintetici in base ai dati di produzione o a uno schema di dati personalizzato utilizzando flussi visivi e algoritmi di modellazione. Si desidera mascherare o imitare i dati di produzione o si desidera generare dati sintetici da un schema dati personalizzato.

Esempio: preparazione dei dati della Golden Bank

Nel loro progetto, i data scientist perfezionano i dati per prepararli all'addestramento di un modello di machine learning, assicurando che i dati siano nel formato corretto. I tecnici di machine learning utilizzano i dati di addestramento strutturati e sequenziali nell'esperimento AutoAI di previsione delle anomalie delle serie temporali che crea le pipeline del modello.


2. Creare e addestrare modelli di machine learning

Per ottenere informazioni predittive basate sui tuoi dati, i data scientist, gli analisti di business e gli ingegneri del machine learning possono creare e addestrare modelli di machine learning. I data scientist utilizzano gli strumenti watsonx.ai per creare i modelli AI, garantendo che vengano utilizzati gli algoritmi e le ottimizzazioni corretti per effettuare previsioni che aiutano a risolvere i problemi aziendali.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
AutoAI Utilizzare AutoAI per selezionare automaticamente gli algoritmi, le funzioni di ingegnere, generare i candidati della pipeline e preparare i candidati della pipeline del modello di machine learning.

Quindi, valutare le pipeline classificate e salvare le migliori come modelli di machine learning.

Distribuire i modelli di machine learning addestrati in uno spazio oppure esportare la pipeline di training del modello che si desidera da AutoAI in un notebook per perfezionarla.
Si desidera un modo avanzato e automatizzato per creare rapidamente una buona serie di pipeline di formazione e modelli di machine learning.

Si desidera poter esportare le pipeline generate per perfezionarle.
Notebook e script Utilizzare i notebook e gli script per scrivere il proprio codice di valutazione e di addestramento del modello di progettazione della funzione in Python o R. Utilizzare i dataset di addestramento disponibili nel progetto o le connessioni alle origini dati come database, laghi di dati o archivio oggetti.

Codice con le librerie e i framework open source preferiti.
Vuoi utilizzare le capacità di codifica Python o R per avere il controllo completo del codice utilizzato per creare, addestrare e valutare i modelli di machine learning.
Flussi SPSS Modeler Utilizzare i flussi SPSS Modeler per creare i propri flussi di calcolo del punteggio, valutazione e addestramento del modello di machine learning. Utilizzare i dataset di addestramento disponibili nel progetto o le connessioni alle origini dati come database, laghi di dati o archiviazione oggetti. Si desidera utilizzare un metodo semplice per esplorare i dati e definire i flussi di calcolo del punteggio, valutazione e addestramento del modello di machine learning.
RStudio Analizzare i dati e creare e testare i modelli di machine learning utilizzando R in RStudio. Si desidera utilizzare un ambiente di sviluppo per lavorare in R.
Decision Optimization Prepara dati, importa modelli, risolvi problemi e confronta scenari, visualizza dati, trova soluzioni, produci report e distribuisci modelli di machine learning. È necessario valutare milioni di possibilità per trovare la soluzione migliore per un problema di analitica prescrittiva.
Apprendimento federato Formare un modello di machine learning comune che utilizza i dati distribuiti. Devi addestrare un modello di machine learning senza spostare, combinare o condividere i dati distribuiti in più ubicazioni.

Esempio: creazione e formazione del modello di apprendimento automatico della Golden Bank

Gli esperti di dati di Golden Bank utilizzano AutoAI per creare un modello di rilevamento delle anomalie di analisi delle serie temporali che evidenzia i modelli nascosti utilizzando i dati cronologici. L'obiettivo è quello di creare un modello in grado di prevedere le date in cui si sono verificate le anomalie delle azioni per una specifica società.


3. Distribuisci modelli

Quando i membri del team operativo distribuiscono i modelli AI, i modelli di machine learning diventano disponibili per le applicazioni da utilizzare per il calcolo del punteggio e le previsioni per guidare le azioni.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
Interfaccia utente spazi Utilizzare l'interfaccia utente Spazi per distribuire modelli e altri asset dai progetti agli spazi. Si desidera distribuire modelli e visualizzare informazioni di distribuzione in uno spazio di collaborazione.

Esempio: distribuzione del modello di Golden Bank

I membri del team operativo di Golden Bank promuovono il "Stock Anomaly Model" dal progetto a uno spazio di distribuzione e quindi creano una distribuzione del modello online. Successivamente, testano il modello distribuito inserendo i dati di stock per le date di output delle anomalie.


4. Richiedi un modello di fondazione

Il team può scrivere codice in un notebook Jupyter o utilizzare Prompt Lab per sviluppare prompt con un modello di base.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
Lab prompt Utilizzare il Prompt Lab per provare a richiedere diversi modelli di base. Selezionare diversi modelli di base da richiedere. Salvare e condividere le richieste più efficaci. Si desidera un'interfaccia utente semplice per esplorare e testare diversi prompt.

Si desidera essere in grado di salvare un modello di prompt o una sessione di prompt come asset di progetto o come esportazione come notebook Jupyter per eseguire ulteriori analisi.
Notebook e script Utilizza i notebook e gli script per richiedere i modelli di base in modo programmatico utilizzando la libreria Python . Il codice può trasformare i dati, modificare i parametri del modello di base, richiedere i modelli di base e generare un output accurato applicando il pattern di generazione incrementato dal richiamo. Utilizzare i dataset di addestramento disponibili nel progetto o le connessioni a origini dati quali database, laghi di dati o archivio oggetti.

Utilizzare le librerie e i framework open source preferiti.
Vuoi utilizzare la capacità di codifica Python o R per avere il controllo completo sul codice utilizzato per eseguire e valutare la progettazione di prompt.

Esempio: progettazione rapida di Golden Bank

I team di data scientist e prompt engineering di Golden Bank lavorano insieme per raccogliere documenti rilevanti da varie fonti di notizie online che corrispondono alle date delle anomalie ottenute dal modello di previsione delle anomalie. Inseriscono queste date in un notebook Jupyter per automatizzare il sourcing degli articoli di notizie online per determinare quali eventi mondiali attuali potrebbero contribuire alle anomalie delle scorte. Jupyter Notebook utilizza LangChain per suddividere il testo in estrazioni di testo più piccole che possono essere incluse nei prompt. Questa attività garantisce che il token non superi le limitazioni della finestra del token di contesto.

Il team utilizza quindi Prompt Lab per creare un modello di prompt per il riepilogo e un modello di prompt per la risposta alle domande. Per l'attività di riepilogo, l'obiettivo è quello di riepilogare il testo dell'articolo di notizie e richiedere domande per ottenere ulteriori informazioni dal testo. Per l'attività di risposta alle domande, l'input e l'output variano in base alla domanda e alle risposte, quindi inseriscono il testo dell'articolo nelle istruzioni.

5. Ottimizza un modello di fondazione

Il team può scrivere codice in un notebook Jupyter o utilizzare Tuning Studio per ottimizzare un modello di base. È possibile ottimizzare un modello di base per ridurre i costi o migliorare le prestazioni del modello.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
Ottimizzazione di Studio Utilizzare Tuning Studio per ottimizzare un modello di base per ridurre i costi o migliorare le prestazioni. Si desidera un'interfaccia utente semplice per creare un modello di base ottimizzato.
Notebook e script Utilizza notebook e script per ottimizzare i modelli di base in modo programmatico utilizzando la libreria Python . Il codice può attivare il processo di ottimizzazione del prompt, distribuire un modello ottimizzato del prompt e dedurre un modello ottimizzato del prompt. Utilizzare i dataset di addestramento disponibili nel progetto o le connessioni a origini dati quali database, laghi di dati o archivio oggetti.

Utilizzare le librerie e i framework open source preferiti.
Si desidera utilizzare le capacità di codifica Python o R per avere il controllo completo sul codice utilizzato per trasformare i dati e quindi ottimizzare e valutare i modelli.

Esempio: ottimizzazione del prompt di Golden Bank

Il prompt del team di ingegneria di Golden Bank sintonizza il modello di fondazione utilizzando ulteriori nuovi articoli. Il team produce un modello di fondazione più economico, più piccolo, con lo stesso livello di prestazioni del modello di fondazione originale che hanno selezionato per l'inferenza.


6. Automatizza il ciclo di vita ML

Il tuo team può automatizzare e semplificare il ciclo di vita di MLOps e AI con Orchestration Pipelines.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
Pipeline di orchestrazione Utilizza le pipeline per creare flussi ripetibili e pianificati che automatizzano le pipeline di notebook, Data Refinerye machine learning, dall'inserimento dei dati alla formazione, al test e alla distribuzione del modello. Si desidera automatizzare alcuni o tutti i passi in un flusso MLOps.

Esempio: ciclo di vita ML automatizzato di Golden Bank

I data scientist di Golden Bank possono utilizzare le pipeline per automatizzarne il ciclo di vita e i processi per semplificare il processo di riaggiornamento del modello di machine learning.


Esercitazioni per watsonx.ai

Supporto didattico Descrizione Esperienza per l'esercitazione
Perfezionare e visualizzare i dati con Data Refinery Preparare e visualizzare i dati tabulari con un editor di flusso grafico. Selezionare le operazioni per manipolare i dati.
Genera dati tabulari sintetici Generare dati tabulari sintetici utilizzando un editor di flusso grafico. Selezionare le operazioni per generare i dati.
Analizzare i dati in un notebook Jupyter Caricare i dati, eseguire e condividere un notebook. Informazioni sul codice Python generato.
Crea e distribuisci un modello di machine learning con AutoAI Creare automaticamente i candidati del modello con lo strumento AutoAI . Crea, distribuisci e verifica un modello senza codifica.
Crea e distribuisci un modello di machine learning in un notebook Crea un modello aggiornando ed eseguendo un notebook che utilizza codice Python e le API Watson Machine Learning . Crea, distribuisci e verifica un modello scikit-learn che utilizza il codice Python .
Crea e distribuisci un modello di machine learning con SPSS Modeler Creare un modello C5.0 che utilizza lo strumento SPSS Modeler . Rilasciare i dati e i nodi di operazione in un canvas e selezionare le proprietà.
Creare e distribuire un modello Decision Optimization Creare automaticamente scenari con Modeling Assistant. Risolvere ed esaminare gli scenari, quindi distribuire e testare un modello senza codifica.
Richiedi un modello di base utilizzando Prompt Lab Sperimenta diversi modelli di base, esplora i prompt di esempio e salva e condividi i tuoi prompt migliori. Richiedi un modello utilizzando Prompt Lab senza codifica.
Richiedi un modello di base con un modello di generazione incrementato dal recupero Richiedi un modello di base utilizzando le informazioni in una knowledge base. Utilizzare il pattern di creazione migliorato di richiamo in un notebook Jupyter che utilizza il codice Python .
Ottimizzazione di un modello di base Ottimizzare un modello di base per migliorare le prestazioni del modello. Utilizzare Tuning Studio per ottimizzare un modello senza codifica.
Automatizzare il ciclo di vita per un modello con pipeline Creare ed eseguire una pipeline per automatizzare la creazione e la distribuzione di un modello di machine learning. Rilasciare i nodi di operazione su un riquadro e selezionare le proprietà.
Prova il caso di utilizzo end-to-end watsonx.ai Seguire un caso di utilizzo dalla preparazione dei dati alla progettazione rapida. Utilizzare vari strumenti, come notebook e Prompt Lab.

Fasi successive

Ulteriori informazioni

Argomento principale: Casi di utilizzo

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni