0 / 0
Torna alla versione inglese della documentazione
Caso d'uso IBM watsonx.governance

Caso d'uso IBM watsonx.governance

Per gestire flussi di lavoro IA responsabili, trasparenti ed esplicabili, la tua azienda ha bisogno di un sistema integrato per monitorare, monitorare e riqualificare i modelli AI. Watsonx.governance fornisce i processi e le tecnologie per consentire all'azienda di monitorare, gestire, automatizzare e gestire il machine learning e i modelli AI generativi in produzione.

Le sfide

Watsonx.governance ti aiuta a risolvere le seguenti sfide per la tua azienda:

Garantire la governance e la conformità per il modello di machine learning e gli asset AI generativi
Le organizzazioni devono valutare, tracciare e documentare la cronologia dettagliata dei modelli di machine learning e degli asset di intelligenza artificiale generativi per assicurare la conformità e fornire visibilità a tutte le parti interessate.
Gestione dei rischi e garanzia di AI responsabile
Le organizzazioni devono monitorare i modelli in produzione per garantire che i modelli siano validi e accurati e che non stiano introducendo pregiudizi o allontanandosi dagli obiettivi previsti.
Monitoraggio e riaggiornamento dei modelli di machine learning
Le aziende devono automatizzare il monitoraggio e la riqualificazione dei modelli di machine learning in base al feedback di produzione.

Esempio: le sfide della Golden Bank

Segui la storia di Golden Bank che utilizza watsonx.governance per gestire i propri asset AI mentre implementano un processo per analizzare le anomalie delle azioni per aumentare la produttività e aumentare l'accuratezza di un analista di azioni nell'investment banking. Il team deve:

  • Tieni traccia dei loro modelli di machine learning e degli asset di intelligenza artificiale generativi per tutto il ciclo di vita; per acquisire e condividere i fatti sugli asset; per aiutare a raggiungere gli obiettivi di governance e conformità.
  • Monitorare i modelli distribuiti per correttezza, precisione, esplicabilità e deviazione.
  • Valutare i modelli di prompt di riepilogo e di risposta alle domande per misurare l'efficacia con cui i modelli di base generano risposte.
  • Creare una pipeline per semplificare il processo di riaggiornamento.

Processo

Per implementare watsonx.governance per la vostra azienda, la vostra azienda può seguire questo processo:

  1. Traccia modelli di machine learning e modelli di prompt
  2. Valutare modelli di machine learning e modelli di prompt
  3. Monitora modelli di machine learning distribuiti e modelli di prompt

Watsonx.ai e watsonx.governance forniscono gli strumenti e i processi necessari alla tua organizzazione per gestire gli asset AI.

Immagine che mostra il flusso del caso di utilizzo di watsonx.governance

1. Traccia modelli di machine learning e modelli di prompt

Il team può tenere traccia dei modelli di machine - learning e dei modelli di prompt dalla richiesta alla produzione e valutare se sono conformi alle normative e ai requisiti della tua organizzazione.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
Fogli informativi Creare un caso di utilizzo AI per tenere traccia e gestire gli asset AI dalla richiesta alla produzione.

Visualizzare lo stato del ciclo di vita per tutti gli asset registrati ed eseguire il drill down ai fogli di calcolo dettagliati per i modelli, le distribuzioni o i modelli di prompt registrati nel caso di utilizzo del modello.

Esaminare i dettagli acquisiti per ogni asset tracciato in un foglio di calcolo associato ad un caso di utilizzo AI.

Visualizzare i dettagli di valutazione, le metriche di qualità, i dettagli di correttezza, e dettagli di deviazione.
È necessario richiedere un modello nuovo o un modello di prompt dal team di data science.

Si desidera verificare che il proprio modello o modello di prompt sia conforme e che funzioni come previsto.

Si desidera determinare se è necessario aggiornare un modello o un modello di prompt in base ai dati di traccia.

Si desidera eseguire i report sugli asset tracciati per condividere o conservare i dettagli.

Esempio: traccia del modello di Golden Bank

Gli analisti di business di Golden Bank hanno richiesto un modello di previsione delle anomalie azionarie. Possono quindi tenere traccia del modello attraverso tutte le fasi del ciclo di vita dell'intelligenza artificiale mentre i data scientist o gli ingegneri ML creano e formano il modello e gli ingegneri ModelOps lo distribuiscono e lo valutano. I factsheet documentano i dettagli sulla cronologia del modello e generano metriche che ne mostrano le prestazioni.


2. Valutazione dei modelli di machine learning e dei modelli di prompt

È possibile valutare i modelli di machine learning e i modelli di prompt in progetti o spazi di distribuzione per misurarne le prestazioni. Per i modelli di machine learning, valutare il modello per qualità, correttezza e precisione. Per i modelli di base, valutare le attività del modello di base e comprendere come il proprio modello genera le risposte.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
Progetti Utilizzare un progetto come spazio di lavoro collaborativo per creare modelli di machine learning, modelli di base di prompt, salvare modelli di machine learning e modelli di prompt e valutare modelli di machine learning e modelli di prompt. Per default, il progetto sandbox viene creato automaticamente quando ti registri a watsonx. Si desidera collaborare su modelli di machine learning e modelli di prompt.
Interfaccia utente spazi Utilizza la IU Spaces per distribuire e valutare i modelli di machine learning, i modelli di prompt e altri asset dai progetti agli spazi. Si desidera distribuire e valutare i modelli di machine learning e i modelli di prompt e visualizzare le informazioni di distribuzione in uno spazio di lavoro collaborativo.

Esempio: valutazione rapida di Golden Bank

I team di data scientist e di progettazione di prompt di Golden Bank lavorano insieme per valutare i modelli di prompt di riepilogo e di risposta alle domande utilizzando i dati di test. Vogliono misurare le prestazioni del modello di base e capire come il modello genera le risposte. Le valutazioni vengono tracciate in AI Factsheets, in modo che l'intero team possa monitorare per tutto il ciclo di vita dalla fase di sviluppo fino alla fase di produzione.


3. Monitora i modelli di machine learning distribuiti e i modelli di prompt

Dopo la distribuzione dei modelli, è importante regolarli e monitorarli per assicurarsi che siano spiegabili e trasparenti. I data scientist devono essere in grado di spiegare in che modo i modelli arrivano a determinate previsioni in modo da poter determinare se le previsioni hanno una distorsione implicita o esplicita. È possibile configurare le valutazioni di deviazione per misurare le modifiche nei dati nel tempo per assicurare risultati coerenti per il modello. Utilizzare le valutazioni di deviazione per identificare le modifiche nell'output del modello, la precisione delle previsioni e la distribuzione dei dati di input.

Cosa è possibile utilizzare Cosa puoi fare tu Migliore da utilizzare quando
Watson OpenScale Problemi di correttezza del modello di monitoraggio in più funzionalità.

Consistenza dei dati e prestazioni del modello di monitoraggio nel corso del tempo.

Spiegare in che modo il modello è arrivato a determinate previsioni con fattori ponderati.

Gestire e creare report sulla gestione del modello e sul ciclo di vita nell'organizzazione.
Si dispone di funzioni protette o che potrebbero contribuire alla correttezza della previsione.

Si desidera tenere traccia delle prestazioni del modello e delle congruenze dei dati nel tempo.

Si desidera sapere perché il modello fornisce determinate previsioni.

Esempio: monitoraggio del modello di Golden Bank

I data scientist di Golden Bank utilizzano Watson OpenScale per monitorare il modello di previsione delle anomalie del magazzino distribuito per garantire che sia accurato, equo e spiegabile. Eseguono un notebook per impostare i monitoraggi per il modello e quindi modificano la configurazione utilizzando l'interfaccia utente Watson OpenScale . Utilizzando le metriche del monitoraggio della qualità Watson OpenScale e del monitoraggio della correttezza, i data scientist determinano in che modo il modello prevede i risultati e se produce risultati distorti. Ottengono anche informazioni dettagliate su come il modello arriva alle decisioni in modo che le decisioni possano essere spiegate agli analisti azionari.


Esercitazioni per watsonx.governance

Supporto didattico Descrizione Esperienza per l'esercitazione
Valutare e tracciare un modello di prompt Valutare un modello di prompt per misurare le prestazioni del modello di base e tenere traccia del modello di prompt durante il suo ciclo di vita. Utilizzare lo strumento di valutazione e un caso di utilizzo AI per tenere traccia del modello di prompt.
Valutare un modello di machine learning Distribuire un modello, configurare i monitor per il modello distribuito e valutare il modello. Eseguire un notebook per configurare i modelli e utilizzare Watson OpenScale per valutare.

Fasi successive

  • Crea modelli di machine learning e AI generativi con watsonx.ai
  • Scalate i carichi di lavoro AI, per tutti i vostri dati, ovunque con watsonx.data Presto

Ulteriori informazioni

Argomento principale: Casi di utilizzo

Ricerca e risposta AI generativa
Queste risposte sono generate da un modello di lingua di grandi dimensioni in watsonx.ai basato sul contenuto della documentazione del prodotto. Ulteriori informazioni