Le spiegazioni delle transazioni del modello aiutano a capire come vengono determinate le previsioni.
È possibile analizzare le spiegazioni locali per comprendere l'impatto dei fattori per transazioni specifiche o analizzare le spiegazioni globali per comprendere i fattori generali che influiscono sui risultati del modello. Il tipo di modello configurato determina il tipo di spiegazione che è possibile utilizzare per analizzare le transazioni.
Le spiegazioni sono supportate per modelli di testo strutturati, immagini e non strutturati. I modelli strutturati possono utilizzare problemi di classificazione binari, multiclasse o di regressione. I modelli di immagini o di testo non strutturato possono utilizzare problemi di classificazione binaria o multiclasse.
Quando si configura la spiegabilità, per analizzare le transazioni si possono usare le spiegazioni locali interpretabili modello-agnostiche (LIME), le spiegazioni contrastive o le spiegazioni additive di Shapley (SHAP).
LIME identifica le funzioni più importanti per uno specifico punto di dati analizzando fino a 5000 altri punti di dati vicini. In un'impostazione ideale, le funzioni con elevata importanza in LIME sono le funzioni più importanti per quel punto di dati specifico.
Le spiegazioni contrastanti calcolano quanti valori devono essere modificati per modificare la previsione o mantenere la stessa previsione. I fattori che richiedono il massimo cambiamento sono considerati più importanti, quindi le funzioni con la massima importanza nelle spiegazioni contrastanti sono le funzioni in cui il modello è meno sensibile. Per le spiegazioni contrastive, vengono visualizzate le variazioni massime per lo stesso risultato e le variazioni minime per un risultato modificato. Queste categorie sono anche note come valori positivi e negativi pertinenti. Questi valori consentono di spiegare il comportamento del modello in vicinanza del punto di dati per cui viene generata una spiegazione.
SHAP è un approccio teorico del gioco che spiega l'output dei modelli di machine learning. Collega l'allocazione ottimale del credito con le spiegazioni locali utilizzando i valori di Shapley e le relative estensioni. SHAP assegna a ciascuna funzione del modello un valore di importanza per una particolare previsione, denominata Valore Shapley. Il valore di Shapley è il contributo marginale medio di un valore caratteristica in tutti i possibili gruppi di funzioni. I valori SHAP delle funzioni di input sono le somme della differenza tra l'output del modello di base o previsto e l'output del modello corrente per la previsione spiegata. L'output del modello di baseline può essere basato sul riepilogo dei dati di addestramento o su qualsiasi sottoinsieme di dati per cui devono essere generate le spiegazioni. I valori di Shapley di una serie di transazioni possono essere combinati per ottenere spiegazioni globali che forniscono una panoramica delle funzioni più importanti di un modello.
Sono supportate solo le spiegazioni globali per gli abbonamenti online. Le spiegazioni SHAP supportano solo i dati tabulari.
Analisi delle spiegazioni locali
È possibile utilizzare diversi metodi per visualizzare le spiegazioni locali.
Quando si revisionano i risultati della valutazione, è possibile selezionare il collegamento Numero di spiegazioni per aprire la finestra Seleziona una spiegazione .
Nella colonna Azione selezionare Spiega per visualizzare la pagina dei dettagli Transazione . I dettagli delle transazioni forniscono diverse spiegazioni, a seconda dei metodi di spiegazione e dei tipi di modello utilizzati.
Per i modelli categoriali, nella scheda Spiega , la pagina Dettagli transazione fornisce un'analisi delle funzioni che hanno influenzato il risultato della transazione con il metodo di spiegazione locale utilizzato. Per SHAP, è possibile selezionare i dati in background utilizzati dal menu Dati in background per rigenerare la spiegazione.
Nella scheda Ispezione, per i modelli di classificazione binaria vengono generate spiegazioni contrastive avanzate che possono essere utilizzate per sperimentare le caratteristiche modificando i valori per vedere se il risultato cambia.
È inoltre possibile visualizzare diverse spiegazioni per il tipo di transazioni riportato di seguito:
- Spiegazione delle transazioni di immagine
- Spiegazione di transazioni di testo non strutturato
- Spiegazione di transazioni tabulari
Spiegazione delle transazioni di immagini
Per i modelli di immagini, è possibile vedere quali parti di un'immagine contribuiscono positivamente e negativamente al risultato previsto. Nel seguente esempio, l'immagine nel riquadro positivo mostra le parti che hanno avuto un impatto positivo sulla previsione. L'immagine nel pannello negativo mostra le parti di immagini che hanno avuto un impatto negativo sul risultato.
Puoi anche utilizzare i seguenti notebook per generare spiegazioni per i modelli di immagine:
Spiegazione di transazioni di testo non strutturato
Per i modelli di testo non strutturati, è possibile visualizzare le parole chiave che hanno avuto un impatto positivo o negativo sulla previsione del modello. I modelli di testo non strutturato spiegano l'importanza delle parole o dei token.
La spiegazione mostra anche la posizione delle parole chiave identificate nel testo originale che è stato alimentato come input per il modello. Per modificare la lingua, selezionare una lingua diversa dall'elenco. La spiegazione viene eseguita nuovamente utilizzando un tokenizer differente.
È anche possibile utilizzare il seguente notebook per creare spiegazioni per i modelli di testo non strutturati:
Esercitazione sulla generazione di una spiegazione per un modello basato su testo
Spiegazione di transazioni tabulari
Per i modelli di classificazione tabulare, è possibile visualizzare le prime tre funzioni che influenzano positivamente la previsione del modello e le prime tre funzioni che influenzano negativamente la previsione.
Per visualizzare le spiegazioni locali, è anche possibile selezionare la scheda Spiega una transazione per aprire la pagina Transazioni recenti . La pagina visualizza tutte le transazioni elaborate dal modello.
Analisi delle spiegazioni globali
Se si abilita il metodo di spiegazione globale SHAP o LIME quando si configura la spiegabilità, è possibile visualizzare i dettagli della metrica di stabilità della spiegazione globale. La metrica di spiegazione globale calcola il livello di congruenza nella spiegazione globale nel tempo.
Quando si analizzano le spiegazioni globali, è possibile visualizzare i seguenti dettagli:
Influenza della funzione
È possibile visualizzare le caratteristiche più importanti in ordine decrescente dei valori assoluti medi di SHAP o LIME per capire quali caratteristiche hanno la massima influenza sulle previsioni del modello.
Distribuzione delle funzionalità
Il grafico della distribuzione delle caratteristiche mostra come i valori di SHAP o LIME influenzino le previsioni delle caratteristiche più importanti. È possibile utilizzare il grafico per comprendere la correlazione tra le caratteristiche e le previsioni.
Confronto
È possibile visualizzare un confronto delle modifiche dell'influenza delle funzioni tra le spiegazioni globali attuali e quelle di base
Argomento principale Revisione delle transazioni del modello