Sie können Qualitätsbewertungen konfigurieren, um die Fähigkeit Ihres Modells zu messen, korrekte Ergebnisse zu liefern, basierend auf der Leistung des Modells.
Qualitätsbewertungen messen, wie gut Ihr Modell genaue Ergebnisse vorhersagt, indem sie feststellen, wann die Modellqualität nachlässt, so dass Sie Ihr Modell entsprechend neu trainieren können. Um das Modell auszuwerten, stellen Sie Feedbackdatenbereit, bei denen es sich um Daten handelt, bei denen das Ergebnis bekannt ist. Qualitätsbewertungen verwenden Metriken, um zu bewerten, wie gut das Modell Ergebnisse vorhersagt, die mit den tatsächlichen Ergebnissen im beschrifteten Dataset übereinstimmen.
In den folgenden Abschnitten wird beschrieben, wie Qualitätsbewertungen konfiguriert werden:
Konfigurieren von Qualitätsbewertungen für Modelle des maschinellen Lernens
Die Feedbackdaten sind vergleichbar mit der Bereitstellung eines Antwortblatts mit tatsächlichen beobachteten Ergebnissen. Die Überwachung kann das Modell so ausführen, als wären die Antworten nicht bekannt. Anschließend können Sie die vorhergesagten Ergebnisse mit den tatsächlichen Ergebnissen vergleichen und Genauigkeitsscores auf der Basis von Qualitätsmetriken bereitstellen.
Um die Feedbackdaten bereitzustellen, die Sie zum Auswerten des Modells verwenden werden, klicken Sie auf die Seite Endpunkte und führen Sie einen der folgenden Schritte aus:
Klicken Sie auf Feedbackdaten hochladen und laden Sie eine Datei mit beschrifteten Daten hoch.
Klicken Sie auf die Registerkarte Endpunkte und geben Sie einen Endpunkt an, der eine Verbindung zur Feedbackdatenquelle herstellt.
Nachdem Ihre Feedbackdaten für die Auswertung verfügbar sind, konfigurieren Sie die Monitoreinstellungen. Sie legen Schwellenwerte für die akzeptable Leistung des Modells im Vergleich zu den bekannten Ergebnissen fest.
Um die Schwellenwerte festzulegen, klicken Sie auf der Registerkarte Qualität auf das Symbol Bearbeiten , um Werte für das Feld Qualitätsschwellenwert einzugeben, und bearbeiten Sie dann die Werte für den Stichprobenumfang.
Alertschwellenwert für Qualität
Copy link to section
Wählen Sie einen Wert aus, der einen akzeptablen Genauigkeitsgrad darstellt. Beispiel: Im deutschen Kreditrisikomodell , das mit der automatischen Konfiguration bereitgestellt wird, wird der Alert für die Metrik "Fläche unter ROC" auf 95%festgelegt. Wenn die gemessene Qualität für das Modell unter diesen Wert fällt, wird ein Alert ausgelöst. Ein typischer Wert für die Fläche unter ROC ist 80%.
Mindest- und maximale Stichprobengröße
Copy link to section
Durch das Festlegen eines Mindeststichprobenumfangs wird die Qualitätsmessung verhindert, bis eine Mindestanzahl Datensätze im Bewertungsdatenbestand verfügbar ist. Dadurch wird sichergestellt, dass die Ergebnisse nicht etwa durch einen zu kleinen Stichprobenumfang verfälscht werden. Bei jeder Durchführung der Qualitätsprüfung wird jeweils der Mindeststichprobenumfang verwendet, um die Anzahl der Datensätze zu bestimmen, für die die Berechnung der Qualitätsmetriken ausgeführt wird.
Der maximale Stichprobenumfang trägt dazu bei, den Zeit-und Ressourcenbedarf für die Auswertung des Datasets besser zu verwalten. Bei Überschreitung dieses Umfangs werden nur die neuesten Datensätze ausgewertet. Beispiel: In der Stichprobe Deutsches Kreditrisikomodell wird der Mindeststichprobenumfang auf 50 gesetzt und es ist keine Maximalgröße angegeben, da es sich um eine kleine Stichprobe handelt.
Konfigurieren von Qualitätsbewertungen für generative KI-Modelle
Copy link to section
Wenn Sie Eingabeaufforderungsvorlagen auswerten, können Sie eine Zusammenfassung der Qualitätsbewertungsergebnisse für den Aufgabentyp "Textklassifikation" überprüfen.
In der Zusammenfassung werden Bewertungen und Verstöße für Metriken angezeigt, die mit Standardeinstellungen berechnet werden.
Um Qualitätsbewertungen mit Ihren eigenen Einstellungen zu konfigurieren, können Sie einen Mindeststichprobenumfang und Schwellenwerte für jede Metrik festlegen. Der Mindestumfang der Stichprobe gibt die Mindestanzahl der Modelltransaktionsdatensätze an, die ausgewertet werden sollen, und die Schwellenwerte erstellen Alerts, wenn Ihre Metrikbewertungen gegen Ihre Schwellenwerte verstoßen. Die Metrikbewertungen müssen höher als die Schwellenwerte sein, um Verstöße zu verhindern. Höhere Metrikwerte bedeuten bessere Scores.
Unterstützte Qualitätsmetriken
Copy link to section
Unterstützte Sprachen: Nur Englisch
Wenn Sie Qualitätsauswertungen aktivieren, können Sie Metriken erstellen, mit deren Hilfe Sie feststellen können, wie gut Ihr Modell Ergebnisse vorhersagt. Die Werte, die als Metrikschwellenwerte festgelegt werden, bestimmen, wie Sie Ihre Metrikscores interpretieren können. Bei Metriken, die mit niedrigeren Schwellenwerten konfiguriert sind, zeigen höhere Bewertungen bessere Ergebnisse an. Bei Metriken, die mit oberen Schwellenwerten konfiguriert sind, zeigen niedrigere Bewertungen bessere Ergebnisse an.
Qualitätsbewertungen generieren die folgenden Metriken:
Fläche unter ROC
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Bereich unter Kurve für Trefferquote und Falsch-positiv-Rate zur Berechnung der Sensitivität gegenüber der Fallout-Rate
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Binäre Klassifizierung
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Fläche unter PR
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Die Fläche, die sich unterhalb der PR-Kurve (PR = Precision Recall) befindet.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Binäre Klassifizierung
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Der Bereich unter 'Genauigkeitsrückruf' gibt die Summe für beide Precision + Recallan.
n
AveP = ∑ P(k)∆r(k)
k=1
Copy to clipboardIn die Zwischenablage kopiert
Die Genauigkeit (P) ist definiert als die Anzahl der wahr-positiven Werte (Tp) gegenüber der Anzahl der wahr-positiven Werte plus der Anzahl der falsch-positiven Werte (Fp).
number of true positives
Precision = ______________________________________________________
(number of true positives + number of false positives)
Copy to clipboardIn die Zwischenablage kopiert
Die Trefferquote (R) ist definiert als die Anzahl der wahr-positiven Werte (Tp) gegenüber der Anzahl der wahr-positiven Werte plus der Anzahl der falsch-negativen Werte (Fn).
number of true positives
Recall = ______________________________________________________
(number of true positives + number of false negatives)
Copy to clipboardIn die Zwischenablage kopiert
Genauigkeit
Copy link to section
Unterstützte Modelle: Maschinelles Lernen und generative KI
Beschreibung: Der Anteil korrekter Vorhersagen
Standardschwellenwerte: Untergrenze = 80 %
Problemtypen: Binäre Klassifizierung und Klassifizierung mit mehreren Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Genauigkeit verstehen: Die Genauigkeit kann je nach Algorithmustyp unterschiedliche Dinge bedeuten.
Mehrklassige Klassifizierung: Die Genauigkeit misst die Zahl der korrekten Vorhersagen einer beliebigen Klasse bei Normalisierung der Anzahl der Datenpunkte. Weitere Details hierzu enthält die Dokumentation zu Apache Spark unter Multi-class classification.
Binäre Klassifizierung: Bei einem Algorithmus für die binäre Klassifizierung wird die Genauigkeit als die Fläche unter einer ROC-Kurve gemessen. Weitere Details hierzu enthält die Dokumentation zu Apache Spark unter Binary classification.
Regression: Regressionsalgorithmen werden mit dem Koeffizient der Bestimmung oder R2gemessen. Weitere Details hierzu enthält die Dokumentation zu Apache Spark unter Regression model evaluation.
Wahr-Positiv-Rate
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Anteil der richtigen Vorhersagen innerhalb der Vorhersagen in der positiven Klasse.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Binäre Klassifizierung
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die Wahr-positiv-Rate (TPR) wird anhand der folgenden Formel berechnet:
number of true positives
TPR = _________________________________________________________
(number of true positives + number of false negatives)
Copy to clipboardIn die Zwischenablage kopiert
Rate des falschen positiven Wertes
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Anteil der falschen Vorhersagen innerhalb der positiven Klasse.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Binäre Klassifizierung
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die falsch-positive Rate ist der Quotient aus der Gesamtzahl der falsch-positiven Ergebnisse, der durch die Summe der falsch-positiven und wahr-negativen Ergebnisse dividiert wird.
number of false positives
False positive rate = ______________________________________________________
(number of false positives + number of true negatives)
Copy to clipboardIn die Zwischenablage kopiert
Brier-Score
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: misst die mittlere quadratische Differenz zwischen der vorhergesagten Wahrscheinlichkeit und dem Zielwert. Höhere Scores geben an, dass die vorhergesagten Wahrscheinlichkeiten des Modells nicht mit dem Zielwert übereinstimmen.
Standardschwellenwerte:
Obergrenze = 80%
Problemtyp: Binäre Klassifizierung
Mathematik:
Die Brier-Score-Metrik wird mit der folgenden Formel berechnet:
BrierScore = 1/N * sum( (p - y)^2 )
Where y = actual outcome, and p = predicted probability
Gini-Koeffizient
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Der Gini-Koeffizient misst, wie gut Modelle zwischen zwei Klassen unterscheiden. Sie wird als doppelt so große Fläche zwischen der ROC-Kurve und der diagonalen Linie des Diagrammdiagramms berechnet. Wenn der Gini-Koeffizientenwert 0 ist, zeigt das Modell keine Diskriminierungsfähigkeit an und der Wert 1 gibt perfekte Diskriminierung an.
Standardschwellenwerte:
Untergrenze = 80%
Problemtyp: Binäre Klassifizierung
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die Gini Koeffizient-Metrik wird mit der folgenden Formel berechnet:
Gini = 2 * Area under ROC - 1
Copy to clipboardIn die Zwischenablage kopiert
Bezeichnungsabweichung
Copy link to section
Unterstützte Modelle: Generative KI und maschinelles Lernen
Beschreibung: Misst die Asymmetrie von Bezeichnungsverteilungen. Wenn die Schiefe 0 ist, ist der Datensatz perfekt ausgeglichen, wenn sie kleiner als -1 oder größer als 1 ist, ist die Verteilung stark schief, alles dazwischen ist mäßig schief.
Standardschwellenwerte:
Untergrenze = -0.5
Obergrenze = 0.5
Problemtypen: Binäre Klassifizierung und Klassifikation mehrerer Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Matthews-Korrelationskoeffizient
Copy link to section
Unterstützte Modelle: Generative KI und maschinelles Lernen
Beschreibung: Misst die Qualität von binären Klassifizierungen und Klassifizierungen mit mehreren Klassen unter Berücksichtigung von wahr-und falsch-positiven und negativen Klassifizierungen. Ausgewogenes Maß, das auch verwendet werden kann, wenn die Klassen unterschiedliche Größen haben. Ein Korrelationskoeffizient zwischen -1 und +1. Ein Koeffizient von +1 steht für eine perfekte Vorhersage, 0 für eine durchschnittliche Zufallsvorhersage und -1 für eine inverse Vorhersage.
Standardschwellenwerte: Untergrenze = 80 %
Problemtypen: Binäre Klassifizierung und Klassifikation mehrerer Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Metrikdetails verfügbar: Wahrheitsmatrix
Mittlerer absoluter Fehler in Prozent
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Standard-Schwellenwerte: Obergrenze = 0.2
Problemtyp: Regression
Beschreibung: Misst die mittlere prozentuale Fehlerdifferenz zwischen den vorhergesagten und den tatsächlichen Werten
Mathematik:
Der mittlere absolute Fehler in Prozent wird mit der folgenden Formel berechnet:
A ist der tatsächliche Wert und P ist der vorhergesagte Wert.
Symmetrischer mittlerer absoluter Fehler in Prozent
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Standard-Schwellenwerte: Obergrenze = 0.2
Problemtyp: Regression
Beschreibung: Misst den symmetrischen Mittelwert des prozentualen Fehlers der Differenz zwischen den vorhergesagten und den tatsächlichen Werten
Mathematik:
Der symmetrische mittlere absolute Fehler in Prozent wird mit der folgenden Formel berechnet:
A ist der tatsächliche Wert und P ist der vorhergesagte Wert.
Pearson-Korrelationskoeffizient
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Standardschwelle: Untere Grenze = 80%
Problemtyp: Regression
Beschreibung: Der Pearson-Korrelationskoeffizient (Pearson) misst die lineare Beziehung zwischen Modellvorhersage und Zielwerten. Die Pearson-Metrik berechnet einen Korrelationskoeffizientenwert zwischen -1 und +1. Ein Korrelationswert von -1 oder +1 bedeutet, dass eine exakte lineare Beziehung besteht, und ein Wert von 0 bedeutet keine Korrelation. Positive Korrelationen zeigen an, dass die Variablen gleichzeitig zunehmen, und negative Korrelationen zeigen an, dass eine Variable zunimmt, während eine andere Variable abnimmt. Hohe positive Werte zeigen an, dass das Modell Werte vorhersagt, die den Zielwerten ähnlich sind.
Korrelationskoeffizient nach Spearman
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Standardschwelle: Untere Grenze = 80%
Problemtyp: Regression
Diagrammwerte: letzter Wert im Zeitrahmen
Beschreibung: Der Korrelationskoeffizient der Rangordnung nach Spearman (Spearman) misst die Monotonie der Beziehung zwischen Modellvorhersagen und Zielwerten. Die Spearman-Metrik berechnet einen Korrelationskoeffizientenwert zwischen -1 und +1. Ein Korrelationswert von -1 oder +1 bedeutet, dass eine exakte monotone Beziehung besteht, und ein Wert von 0 bedeutet keine Korrelation. Positive Korrelationen zeigen an, dass die Variablen gleichzeitig zunehmen, und negative Korrelationen zeigen an, dass eine Variable zunimmt, während eine andere Variable abnimmt.
Trefferquote
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Anteil der richtigen Vorhersagen innerhalb der positiven Klasse.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Binäre Klassifizierung
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die Trefferquote (R) ist definiert als die Anzahl der wahr-positiven Werte (Tp) gegenüber der Anzahl der wahr-positiven Werte plus der Anzahl der falsch-negativen Werte (Fn).
number of true positives
Recall = ______________________________________________________
(number of true positives + number of false negatives)
Copy to clipboardIn die Zwischenablage kopiert
Genauigkeit
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Anteil der richtigen Vorhersagen innerhalb der Vorhersagen in der positiven Klasse.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Binäre Klassifizierung
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die Genauigkeit (P) ist definiert als die Anzahl der wahr-positiven Werte (Tp) gegenüber der Anzahl der wahr-positiven Werte plus der Anzahl der falsch-positiven Werte (Fp).
number of true positives
Precision = __________________________________________________________
(number of true positives + the number of false positives)
Copy to clipboardIn die Zwischenablage kopiert
F1-Measure
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: harmonisches Mittel von Genauigkeit und Trefferquote
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Binäre Klassifizierung
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Das F1-measure ist der gewichtete harmonische Mittelwert aus Genauigkeit und Trefferquote.
Beschreibung: Mittelwert der Zielklassenwahrscheinlichkeit (Konfidenz) der Logarithmen. Sie wird auch als erwartete Log-Likelihood (Log-Wahrscheinlichkeit) bezeichnet.
Standardschwellenwerte: Untergrenze = 80 %
Problemtypen: Binäre Klassifizierung und Klassifikation mehrerer Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: keine
Mathematik:
Bei einem binären Modell wird der logarithmische Verlust anhand der folgenden Formel berechnet:
-(y log(p) + (1-y)log(1-p))
Copy to clipboardIn die Zwischenablage kopiert
Dabei ist p die Kennzeichnung für 'True" und y die vorhergesagte Wahrscheinlichkeit.
Für ein Modell mit mehreren Klassen wird der logarithmische Verlust mithilfe der folgenden Formel berechnet:
M
-SUM Yo,c log(Po,c)
c=1
Copy to clipboardIn die Zwischenablage kopiert
Dabei ist M > 2, p die wahre Kennzeichnung und y die vorhergesagte Wahrscheinlichkeit.
Proportion der erklärten Varianz
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Die Proportion der erklärten Varianz stellt das Verhältnis der erklärten Varianz zur Zielvarianz dar. Die erklärte Varianz ist die Differenz zwischen der Zielvarianz und der Varianz des Vorhersagefehlers.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Regression
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: keine
Mathematik:
Die Proportion der erklärten Varianz wird durch Mittelwertbildung der Zahlen berechnet, dann für jede Zahl den Mittelwert subtrahieren und die Ergebnisse quadratisch darstellen. Dann die Quadrate berechnen.
sum of squares between groups
Proportion explained variance = ________________________________
sum of squares total
Copy to clipboardIn die Zwischenablage kopiert
Mittelwert-absoluter Fehler
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Der Mittelwert der absoluten Differenz zwischen der Modellvorhersage und dem Zielwert.
Standardschwellenwerte: Obergrenze = 80 %
Problemtyp: Regression
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: keine
Mathematik:
Der mittlere absolute Fehler wird berechnet, indem alle absoluten Fehler addiert und durch die Anzahl der Fehler dividiert werden.
SUM | Yi - Xi |
Mean absolute errors = ____________________
number of errors
Copy to clipboardIn die Zwischenablage kopiert
Mittlerer quadratischer Fehler
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Der Mittelwert der quadrierten Differenz zwischen der Modellvorhersage und dem Zielwert.
Standardschwellenwerte: Obergrenze = 80 %
Problemtyp: Regression
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: keine
Mathematik:
Der mittlere quadratische Fehler in seiner einfachsten Form wird durch die folgende Formel dargestellt:
SUM (Yi - ^Yi) * (Yi - ^Yi)
Mean squared errors = ____________________________
number of errors
Copy to clipboardIn die Zwischenablage kopiert
R-Quadrat
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Das Verhältnis der Differenz zwischen der Zielvarianz und der Varianz für einen Vorhersagefehler in Bezug zur Zielvarianz.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Regression
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: keine
Mathematik:
Die Metrik "R-Quadrat" ist in der folgenden Formel definiert.
explained variation
R-squared = _____________________
total variation
Copy to clipboardIn die Zwischenablage kopiert
Wurzel für mittleren quadratischen Fehler
Copy link to section
Unterstützte Modelle: Maschinelles Lernen
Beschreibung: Quadratwurzel des Mittelwerts der quadrierten Differenz zwischen der Modellvorhersage und dem Zielwert.
Standardschwellenwerte: Obergrenze = 80 %
Problemtyp: Regression
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: keine
Mathematik:
Die Wurzel des mittleren quadratischen Fehlers ist gleich der Quadratwurzel des mittleren quadratischen Mittelwerts (Vorhersagen minus beobachtete Werte).
Unterstützte Modelle: Maschinelles Lernen und generative KI
Beschreibung: Gewichteter Mittelwert der Klasse TPR mit Gewichtungen, die gleich der Klassenwahrscheinlichkeit sind.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Klassifikation mehrerer Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die Wahr-positiv-Rate (TPR) wird anhand der folgenden Formel berechnet:
number of true positives
TPR = _________________________________________________________
number of true positives + number of false negatives
Copy to clipboardIn die Zwischenablage kopiert
Gewichtete Rate von Falsch-positiven
Copy link to section
Unterstützte Modelle: Maschinelles Lernen und generative KI
Beschreibung: Anteil der falschen Vorhersagen innerhalb der positiven Klasse.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Klassifikation mehrerer Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die gewichtete Falsch-positiv-Rate (wFPR) ergibt sich aus der Anwendung der Falsch-positiv-Rate (FPR) mit gewichteten Daten.
number of false positives
FPR = ______________________________________________________
(number of false positives + number of true negatives)
Copy to clipboardIn die Zwischenablage kopiert
Gewichtete Trefferquote
Copy link to section
Unterstützte Modelle: Maschinelles Lernen und generative KI
Beschreibung: Gewichteter Mittelwert der Trefferquote mit Gewichtungen, die gleich der Klassenwahrscheinlichkeit sind.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Klassifikation mehrerer Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die gewichtete Trefferquote - Weighted Recall (wR) - ist als die Anzahl von wahr-positiven Ergebnissen (Tp: True Positives) geteilt durch die Anzahl der wahr-positiven Ergebnisse plus der Anzahl der falsch-negativen Ergebnisse (Fn: False Positives) definiert, wobei gewichtete Daten verwendet werden.
number of true positives
Recall = ______________________________________________________
number of true positives + number of false negatives
Copy to clipboardIn die Zwischenablage kopiert
Gewichtete Genauigkeit
Copy link to section
Unterstützte Modelle: Maschinelles Lernen und generative KI
Beschreibung: Gewichteter Mittelwert der Genauigkeit mit Gewichtungen, die gleich der Klassenwahrscheinlichkeit sind.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Klassifikation mehrerer Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Die Genauigkeit (P) ist definiert als die Anzahl der wahr-positiven Werte (Tp) gegenüber der Anzahl der wahr-positiven Werte plus der Anzahl der falsch-positiven Werte (Fp).
number of true positives
Precision = ________________________________________________________
number of true positives + the number of false positives
Copy to clipboardIn die Zwischenablage kopiert
Gewichtetes F1-Maß
Copy link to section
Unterstützte Modelle: Maschinelles Lernen und generative KI
Beschreibung: Gewichteter Mittelwert des F1-Maßes mit Gewichtungen, die gleich der Klassenwahrscheinlichkeit sind.
Standardschwellenwerte: Untergrenze = 80 %
Problemtyp: Klassifikation mehrerer Klassen
Diagrammwerte: letzter Wert im Zeitrahmen
Verfügbare Metrikdetails: Wahrheitsmatrix
Mathematik:
Das gewichtete F1-Maß ist das Ergebnis der Verwendung gewichteter Daten.
Konfigurieren von Qualitätsauswertungen mit historischen Daten
Copy link to section
Sie können Qualitätsauswertungen auch so konfigurieren, dass Metriken mit historischen Bewertungsdaten aus früheren Zeitfenstern generiert werden. Zur Konfiguration von Auswertungen mit historischen Bewertungsdaten können Sie das Python SDK verwenden, um Parameter für die Berechnung von Metriken in einem einzigen Zeitfenster mit Start- und Enddatum festzulegen: