Bereich unter PR-Evaluierungsmetrik
Der Bereich unter PR-Metrik misst, wie gut Ihr Modell positive Klassen korrekt identifiziert und alle positiven Klassen findet.
Metrikdetails
Der Bereich unter Präzisionsrückruf (PR) ist eine Metrik zur Qualitätsbewertung, die die Qualität der Leistung von binären Klassifizierungsmodellen für maschinelles Lernen in watsonx.governance misst.
Bereich
Der Bereich unter PR-Metrik bewertet nur Modelle für maschinelles Lernen.
Arten von KI-Vermögenswerten : Modelle für maschinelles Lernen
Art des Problems beim maschinellen Lernen : Binäre Klassifizierung
Ergebnisse und Werte
Der Bereich unter dem PR-Metrik-Metrik-Score gibt an, wie gut das Modell Präzision und Rückruf ausgleicht. Höhere Werte weisen auf eine bessere Modellleistung bei der Identifizierung und Auffindung positiver Klassen hin.
- Wertebereich : 0.0-1.0
- Bestmögliche Punktzahl : 1.0
- Diagrammwerte: Letzter Wert im Zeitrahmen
Eine Punktzahl von 0.5 deutet auf eine zufällige Schätzung hin, während eine Punktzahl von 1.0 eine perfekte Klassifizierung darstellt.
Einstellungen
Standardschwelle : Untergrenze = 80 %
Evaluierungsprozess
Die Fläche unter der PR-Kurve wird berechnet, indem die Präzision gegen die Rückrufrate für verschiedene Schwellenwerte aufgetragen wird. Für jeden Schwellenwert wird eine Verwirrungsmatrix erstellt, die die Klassen der echten Positiven, falschen Positiven und falschen Negativen angibt.
Präzision und Recall werden mit diesen Klassen berechnet und zur Erstellung der PR-Kurve grafisch dargestellt. Die Fläche unter dieser Kurve wird berechnet, um den metrischen Wert zu generieren.
Mathematische Berechnung
Der Bereich unter PR berechnet die Summe für Präzision und Recall mit der folgenden Formel:
Die Präzision (P) wird als die Anzahl der echten positiven Ergebnisse (Tp) über die Anzahl der echten positiven Ergebnisse plus die Anzahl der falschen positiven Ergebnisse (Fp) mit der folgenden Formel berechnet:
Die Recall-Rate (R) wird anhand der folgenden Formel als die Anzahl der echten positiven Ergebnisse (Tp) über die Anzahl der echten positiven Ergebnisse plus die Anzahl der falschen negativen Ergebnisse (Fn) berechnet:
Übergeordnetes Thema: Bewertungsmetriken