Translation not up to date
Watson OpenScale , tahminlerin nasıl belirlendiğini anlamanıza yardımcı olmak için model işlemleriniz için açıklamalar sağlar.
Belirli işlemlere ilişkin etkenlerin etkisini anlamak için yerel açıklamaları analiz edebilir ya da model sonuçlarını etkileyen genel etkenleri anlamak için genel açıklamaları analiz edebilirsiniz. Yapılandırdığınız model tipi, hareketlerinizi çözümlemek için kullanabileceğiniz açıklama tipini belirler.
Watson OpenScale , yapısal, resim ve yapısal olmayan metin modellerine ilişkin açıklamaları destekler. Yapısal modeller ikili, çok değişkenli ya da regresyon sınıflandırma sorunlarını kullanabilir. Resim ya da yapısal olmayan metin modelleri ikili ya da çok değişkenli sınıflandırma sorunlarını kullanabilir.
Watson OpenScale' de açıklanabilirliği yapılandırırken, işlemleri analiz etmek için Yerel Yorumlanabilir Model-agnostik Açıklamalar (LIME), karşıt açıklamalar ya da Shapley Ekleyici açıklamaları (SHAP) kullanabilirsiniz.
LIME, 5000 'e kadar diğer yakın veri noktasını analiz ederek belirli bir veri noktası için en önemli özellikleri tanımlar. İdeal bir ayarda, LIME ' de yüksek önem taşıyan özellikler, bu belirli veri noktası için en önemli özelliklerdir.
Karşıt açıklamalar, öngörüleri değiştirmek veya aynı öngörüleri korumak için kaç değerin değişmesi gerektiğini hesaplar. Maksimum değişikliğe ihtiyacı olan faktörler daha önemli kabul edilir, bu nedenle zıt açıklamalarda en yüksek öneme sahip özellikler, modelin en az hassas olduğu özelliklerdir. Zıt açıklamalar için, Watson OpenScale aynı sonuç için maksimum değişiklikleri ve değişen bir sonuç için minimum değişiklikleri görüntüler. Bu kategoriler, ilgili pozitif ve ilgili negatif değerler olarak da bilinir. Bu değerler, bir açıklamanın oluşturulduğu veri noktasının yakınında modelin davranışını açıklamaya yardımcı olur.
SHAP, makine öğrenimi modellerinin çıktısını açıklayan bir oyun kuramsal yaklaşımdır. Shapley değerlerini ve ilgili uzantılarını kullanarak yerel açıklamalarla optimum kredi tahsisini birbirine bağlar. SHAP, her bir model için Şekil değeriolarak adlandırılan belirli bir öngörü için önem değeri atar. Shape değeri, bir özellik değerinin tüm olası özellik gruplarında ortalama marjinal katkısıdır. Giriş özelliklerinin SHAP değerleri, temel çizgi ya da beklenen model çıkışı ile açıklanmakta olan öngörü için geçerli model çıkışı arasındaki farkın toplamasıdır. Temel çizgi modeli çıkışı, eğitim verilerinin özetine ya da açıklamalar oluşturulması gereken herhangi bir veri alt kümesine dayalı olabilir. Bir işlem kümesinin Shapley değerleri, bir modelin hangi özelliklerinin en önemli olduğuna ilişkin genel bir bakış sağlayan genel açıklamalar elde etmek için birleştirilebilir.
Watson OpenScale yalnızca çevrimiçi abonelikler için genel açıklamaları destekler. SHAP açıklamaları yalnızca sekmeli verileri destekler.
Yerel açıklamaları çözümleme
Watson OpenScale , yerel açıklamaları görüntülemek için kullanabileceğiniz farklı yöntemler sağlar.
Değerlendirme sonuçlarını gözden geçirirken, Açıklama seç penceresini açmak için Açıklama sayısı bağlantısını seçebilirsiniz.
İşlem kolonunda, Hareket ayrıntıları sayfasını görüntülemek için Açıkla seçeneğini belirleyin. İşlem ayrıntıları , kullandığınız açıklama yöntemlerine ve model tiplerine bağlı olarak farklı açıklamalar sağlar.
Kategorik modeller için, Açıkla etiketinde Hareket ayrıntıları sayfası, kullandığınız yerel açıklama yöntemiyle hareketin sonucunu etkileyen özelliklerin çözümlemesini sağlar. SHAP için, açıklamayı yeniden oluşturmak üzere Artalan verileri menüsünde kullandığınız artalan verilerini seçebilirsiniz.
İncele sekmesinde Watson OpenScale , sonucun değişip değişmediğini görmek için değerleri değiştirerek özelliklerle deneme yapmak için kullanabileceğiniz ikili sınıflandırma modelleri için gelişmiş karşıt açıklamalar oluşturur.
Aşağıdaki işlem tipine ilişkin farklı açıklamaları da görüntüleyebilirsiniz:
- Görüntü hareketlerinin açıklanması
- Yapısal olmayan metin hareketlerinin açıklanması
- Sekmeli işlemlerin açıklanması
Resim işlemlerinin açıklanması
Görüntü modellerinde, bir görüntünün hangi kısımlarının tahmin edilen sonuca olumlu ve olumsuz katkı sağladığınızı görebilirsiniz. Aşağıdaki örnekte, pozitif paneldeki resim, öngörüye olumlu etki eden kısımları gösterir. Negatif paneldeki resim, sonuç üzerinde olumsuz bir etkisi olan görüntü bölümlerini gösterir.
Görüntü modellerine ilişkin açıklamalar oluşturmak için aşağıdaki not defterlerini de kullanabilirsiniz:
Yapısal olmayan metin hareketlerinin açıklanması
Yapılandırılmamış metin modelleri için, hangi anahtar sözcüklerin model öngörüsü üzerinde olumlu ya da olumsuz bir etkisi olduğunu görüntüleyebilirsiniz. Yapısal olmayan metin modelleri, sözcüklerin ya da simgelerin önemini açıklar.
Açıklama, modele giriş olarak beslenen özgün metinde belirtilen anahtar sözcüklerin konumunu da gösterir. Dili değiştirmek için listeden farklı bir dil seçin. Açıklama, farklı bir bölümleyici kullanılarak yeniden çalıştırılır.
Yapılandırılmamış metin modellerine ilişkin açıklamalar oluşturmak için aşağıdaki not defterini de kullanabilirsiniz:
Metin tabanlı bir model için açıklama oluşturulmasına ilişkin öğretici program
Sekmeli işlemlerin açıklanması
Sekmeli sınıflandırma modellerinde, model tahminini olumlu etkileyen ilk üç özelliği ve öngörüyü olumsuz etkileyen ilk üç özelliği görüntüleyebilirsiniz.
Yerel açıklamaları görüntülemek için, Bir hareketi açıkla etiketini seçerek En son hareketler sayfasını açabilirsiniz. Sayfa, modeliniz tarafından işlenen tüm işlemleri görüntüler.
Genel açıklamaları analiz etme
Açıklık yapılandırırken SHAP genel açıklama yöntemini etkinleştirirseniz, gösterge panonuzdaki genel açıklama kararlılığı metriğinin ayrıntılarını görüntüleyebilirsiniz. Genel açıklama metriği, zaman içindeki genel açıklamanın tutarlılık derecesini hesaplar.
Açıklanabilirlik için değerlendirme sonuçlarını gözden geçirdiğinizde, aşağıdaki ayrıntıları görüntüleyebilirsiniz:
- Özellik etkisi: Ortalama mutlak SHAP değerlerinin azalan sırasındaki en önemli özellikler
- Dağıtım: Her bir özelliğin dağıtımına ilişkin SHAP değerleri
- Karşılaştırma: Özellikler değişikliği, geçerli genel ve temel çizgisi genel açıklaması arasındaki etkiye sahiptir.
Farklı değişikliklerin sonuçlarınızı nasıl etkileyebileceğini belirlemek için model işlem değerlerini ayarlayarak olasılık senaryolarını da test edebilirsiniz.
Üst konu: Model hareketlerinin gözden geçirilmesi