0 / 0
Zurück zur englischen Version der Dokumentation
Fairnessbewertungen
Letzte Aktualisierung: 25. Okt. 2024
Fairnessbewertungen

Sie können Fairness-Auswertungen konfigurieren, um festzustellen, ob Ihr Modell verzerrte Ergebnisse erzeugt. Verwenden Sie Fairness-Bewertungen, um festzustellen, wann Ihr Modell dazu neigt, einer Gruppe häufiger günstige Ergebnisse zu liefern als einer anderen.

Konfigurieren von Fairnessbewertungen für Modelle des maschinellen Lernens

Wenn Sie Nutzlastdaten protokollieren, wenn Sie Modellauswertungen vorbereiten, können Sie Fairnessauswertungen konfigurieren.

Sie können Fairnessbewertungen manuell konfigurieren oder ein angepasstes Notebook ausführen, um eine Konfigurationsdatei zu erstellen. Sie können die Konfigurationsdatei hochladen, um die Einstellungen für Ihre Bewertung festzulegen.

Wenn Sie Fairnessbewertungen manuell konfigurieren, können Sie die Referenzgruppe (Wert) angeben, von der Sie erwarten, dass sie günstige Ergebnisse darstellen. Sie können auch die entsprechenden Modellattribute (Features) zur Überwachung auf Verzerrungen (z. B. Alter oder Geschlecht) auswählen, die mit der Referenzgruppe verglichen werden. Abhängig von Ihren Trainingsdaten können Sie auch den minimalen und maximalen Stichprobenumfang für Auswertungen festlegen.

Wählen Sie günstige und ungünstige Ergebnisse

Bei der Konfiguration von Fairnessbewertungen müssen Sie günstige und ungünstige Ergebnisse angeben. Die Werte, die ein günstiges Ergebnis darstellen, werden aus der Spalte label in Trainingsdaten abgeleitet. Standardmäßig ist die Spalte predictedLabel als Spalte prediction eingestellt. Günstige und ungünstige Werte müssen angegeben werden, indem der Wert der Spalte prediction als Zeichenfolgedatentyp verwendet wird, beispielsweise 0 oder 1, wenn Sie Trainingsdaten hochladen.

Features auswählen

Sie müssen die Merkmale auswählen, bei denen es sich um die Modellattribute handelt, die Sie auswerten möchten, um Verzerrungen zu erkennen. Sie können zum Beispiel Merkmale wie Sex oder Age auf Verzerrungen untersuchen. Es werden nur Merkmale unterstützt, die 'kategorial', 'numerisch' (Ganzzahl), Gleitkomma oder Double als Datentyp aufweisen.

Die Werte der Features werden als Referenz oder überwachte Gruppe angegeben. Die überwachte Gruppe stellt die Werte dar, die am stärksten für verzerrte Ergebnisse gefährdet sind. Für das Feature Sex können Sie beispielsweise Female und Non-binary als überwachte Gruppen festlegen. Für eine numerische Funktion wie Age können Sie [18-25] als überwachte Gruppe festlegen. Alle anderen Werte für das Merkmal werden dann als Referenzgruppe betrachtet, z. B. Sex=Male oder Age=[26,100].

Fairness-Schwelle festlegen

Sie können den Fairness-Schwellenwert festlegen, um einen akzeptablen Unterschied zwischen dem Prozentsatz der günstigen Ergebnisse für die überwachte Gruppe und dem Prozentsatz der günstigen Ergebnisse für die Referenzgruppe zu bestimmen. Wenn beispielsweise der Prozentsatz günstiger Ergebnisse für eine Gruppe in Ihrem Modell 70 % beträgt und der Fairnessschwellenwert auf 80 % gesetzt ist, erkennt die Fairnessüberwachung Verzerrungen in Ihrem Modell.

Stichprobegröße festlegen

Die Stichprobengröße wird verwendet, um die Anzahl der ausgewerteten Transaktionen schneller zu verarbeiten. Sie müssen einen Mindeststichprobenumfang festlegen, um die niedrigste Anzahl von Transaktionen anzugeben, die Sie auswerten möchten. Sie können auch einen maximalen Stichprobenumfang festlegen, um die maximale Anzahl von Transaktionen anzugeben, die Sie auswerten möchten.

Tests auf indirekte Verzerrung

Wenn Sie ein Feld auswählen, das kein Trainingsmerkmal ist, ein so genanntes hinzugefügtes Feld, wird die indirekte Verzerrung durch die Suche nach zugehörigen Werten in den Trainingsmerkmalen ermittelt. Zum Beispiel kann der Beruf "Student" eine jüngere Person implizieren, obwohl das Feld "Alter" von der Modellausbildung ausgeschlossen wurde. Einzelheiten zur Konfiguration von Fairness-Bewertungen zur Berücksichtigung indirekter Verzerrungen finden Sie unter Konfiguration des Fairness-Monitors für indirekte Verzerrungen.

Verzerrung mindern

Passives und aktives Debiasing werden für die Bewertung von Modellen des maschinellen Lernens verwendet. Die passive Verzerrungsbereinigung macht die Verzerrung sichtbar. Die aktive Verzerrungsbereinigung hingegen verhindert, dass die Verzerrung weiter propagiert wird, indem sie in Echtzeit für die aktuelle Anwendung entsprechende Änderungen am Modell vornimmt. Details zum Interpretieren von Ergebnissen und zum Mindern von Verzerrungen in einem Modell finden Sie unter Ergebnisse einer Fairnessbewertung überprüfen.

Konfigurieren von Fairnessbewertungen in watsonx.governance

Wenn Sie Prompt-Vorlagen auswerten, können Sie eine Zusammenfassung der Ergebnisse der Fairness-Bewertung für die Textklassifizierungsaufgaben einsehen.

Wählen Sie günstige und ungünstige Ergebnisse

Bei der Konfiguration von Fairnessbewertungen müssen Sie günstige und ungünstige Ergebnisse angeben. Die Werte, die ein günstiges Ergebnis darstellen, werden aus der Spalte label in den von Ihnen bereitgestellten Testdaten abgeleitet. Standardmäßig ist die predictedLabel-Spalte als prediction-Spalte eingestellt. Günstige und ungünstige Werte müssen angegeben werden, indem der Wert der Spalte prediction als String-Datentyp verwendet wird, z. B. 0 oder 1, wenn Sie Trainingsdaten hochladen.

Meta-Felder auswählen

Sie müssen Meta-Felder auswählen, damit watsonx.governance Felder identifizieren kann, die nicht als Merkmale in den von Ihnen bereitgestellten Testdaten angegeben sind.

Fairness-Schwellenwerte festlegen

Um Fairness-Auswertungen mit Ihren eigenen Einstellungen zu konfigurieren, können Sie eine minimale und maximale Stichprobengröße für jede Metrik festlegen. Der minimale bzw. maximale Stichprobenumfang gibt die minimale bzw. maximale Anzahl von Modelltransaktionen an, die Sie auswerten möchten.

Sie können auch Basisdaten konfigurieren und Schwellenwerte für jede Metrik festlegen. Schwellenwerte erzeugen Warnungen auf der Seite mit der Auswertungszusammenfassung, die angezeigt werden, wenn die Metrikwerte Ihre Schwellenwerte überschreiten. Die Werte müssen im Bereich von 0 bis 1 liegen. Die metrischen Werte müssen unter den Schwellenwerten liegen, um Verstöße zu vermeiden.

Stichprobegröße festlegen

Watsonx.governance verwendet Stichprobengrößen, um zu verstehen, wie die Anzahl der Transaktionen, die während der Auswertungen ausgewertet werden, zu verarbeiten ist. Sie müssen eine Mindeststichprobengröße festlegen, um die niedrigste Anzahl von Transaktionen anzugeben, die watsonx.governance auswerten soll. Sie können auch eine maximale Stichprobengröße festlegen, um die maximale Anzahl von Transaktionen anzugeben, die watsonx.governance auswerten soll.

Unterstützte Fairnessmetriken

Wenn Sie Fairness-Evaluierungen für Modelle für maschinelles Lernen oder generative KI-Assets aktivieren, können Sie eine Zusammenfassung der Evaluierungsergebnisse mit Metriken für die Art des Modells anzeigen, das Sie evaluieren.

Sie können die Ergebnisse Ihrer Fairness-Bewertungen für Modelle des maschinellen Lernens auf dem Insights-Dashboard einsehen. Weitere Informationen finden Sie unter Überprüfung der Fairness-Ergebnisse.

Die folgenden Messgrößen werden durch Fairness-Bewertungen unterstützt:

Ungleiche Auswirkungen

Ungleiche Auswirkungen werden als Fairnesswerte für verschiedene Gruppen angegeben. Bei ungleichen Auswirkungen wird der Prozentsatz der günstigen Ergebnisse für eine überwachte Gruppe mit dem Prozentsatz der günstiger Ergebnisse für eine Referenzgruppe verglichen.

  • Wie es funktioniert: Wenn Sie die Details einer Modellbereitstellung ansehen, zeigt der Abschnitt Fairness der Modellzusammenfassung die Fairnesswerte für verschiedene Gruppen an, die als Metriken beschrieben werden. Die Fairnessscores werden mit der Formel für ungleiche Auswirkungen berechnet.

  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Nein

  • Rechnen Sie nach:

                    (num_positives(privileged=False) / num_instances(privileged=False))
Disparate impact =   ______________________________________________________________________
                    (num_positives(privileged=True) / num_instances(privileged=True))              

Der Wert num_positives gibt die Anzahl der Personen in der Gruppe an, die ein positives Ergebnis erhalten haben, und der Wert num_instances gibt die Gesamtzahl der Personen in der Gruppe an. Die Bezeichnung privileged=False gibt nicht privilegierte Gruppen an und die Bezeichnung privileged=True privilegierte Gruppen. Die positiven Ergebnisse werden als günstige Ergebnisse und die negativen Ergebnisse als ungünstige Ergebnisse bezeichnet. Die privilegierte Gruppe wird als Referenzgruppe bezeichnet, die nicht privilegierte Gruppe als überwachte Gruppe.

Die Berechnung ergibt einen Prozentwert, der angibt, wie oft die Rate des positiven Ergebnisses für die nicht privilegierte Gruppe, mit der Rate des positiven Ergebnisses für die privilegierte Gruppe übereinstimmt. Beispiel: Wenn ein Kreditrisikomodell die Vorhersage "Kein Risiko" für 80 % der nicht privilegierten Antragsteller ausgibt und für 100 % der privilegierten Antragsteller, beträgt der Wert für ungleiche Auswirkungen in diesem Modell 80 %.

  • Unterstützte Fairnessdetails

    • Die folgenden Details für Fairness-Metriken werden unterstützt:
      • Die günstigen Prozentsätze für jede der Gruppen
      • Fairnessdurchschnittswerte für alle Fairnessgruppen
      • Verteilung der Daten für jede der überwachten Gruppen
      • Verteilung der Nutzdaten

Statistische Paritätsdifferenz

Die statistische Paritätsdifferenz vergleicht den prozentualen Anteil der günstigen Ergebnisse für die überwachten Gruppen mit den Referenzgruppen.

  • Beschreibung: Fairness-Metrik, die die Fairness der Modellvorhersagen beschreibt. Es handelt sich um die Differenz zwischen dem Verhältnis der günstigen Ergebnisse in den überwachten Gruppen und den Referenzgruppen

    • Unter 0: Höhere Leistungen für die überwachte Gruppe.
    • Bei 0: Beide Gruppen haben den gleichen Nutzen.
    • Über 0 Bedeutet einen höheren Nutzen für die Referenzgruppe.
  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Ja

  • Rechnen Sie nach:

                                    num_positives(privileged=False)     num_positives(privileged=True) 
Statistical parity difference =  ________________________________ -  ________________________________
                                    num_instances(privileged=False)     num_instances(privileged=True)

Auswirkungsbewertung

Die Auswirkungsbewertung vergleicht die Rate, mit der beobachtete Gruppen ausgewählt werden, um günstige Ergebnisse zu erzielen, mit der Rate, mit der Referenzgruppen ausgewählt werden, um günstige Ergebnisse zu erzielen.

  • Rechnen Sie nach:

Mit der folgenden Formel wird die Auswahlquote für jede Gruppe berechnet:

                                      number of individuals receiving favorable outcomes
            Selection rate  =   ________________________________________________________
                                       total number of individuals

Mit der folgenden Formel wird der Impact Score berechnet:

                                      selection rate for monitored groups
           Impact score  =   ________________________________________________________
                                      selection rate for reference groups

  • Schwellenwerte:

    • Untere Grenze: 0.8
    • Obere Grenze: 1.0
  • Wie es funktioniert: Höhere Punktzahlen bedeuten höhere Auswahlquoten für beobachtete Gruppen

Differenz der Falsch-Negativ-Rate

Die Differenz der Falsch-Negativ-Rate gibt den Prozentsatz der positiven Transaktionen an, die von Ihrem Modell fälschlicherweise als negativ eingestuft wurden.

  • Beschreibung: Gibt die Differenz der Falsch-Negativ-Raten für die überwachte Gruppe und die Referenzgruppe an

    • Bei 0: Beide Gruppen haben den gleichen Nutzen.
  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Ja

  • Rechnen Sie nach:

Die folgende Formel wird zur Berechnung der Falsch-Negativ-Rate (FNR) verwendet:

                                        false negatives         
            False negative rate  =  __________________________
                                        all positives

Für die Berechnung der Differenz der Falsch-negativ-Raten wird folgende Formel verwendet:

            False negative rate difference  =  FNR of monitored group - FNR of reference group

Differenz der Falsch-Positiv-Rate

Die Differenz der Falsch-Positiv-Rate gibt den Prozentsatz der negativen Transaktionen an, die von Ihrem Modell fälschlicherweise als positiv bewertet wurden.

  • Beschreibung: Gibt das Verhältnis der Falsch-Positiv-Rate für die überwachte Gruppe und die Referenzgruppen zurück.

    • Bei 0: Beide Gruppen haben gleiche Chancen.
  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Ja

  • Rechnen Sie nach:

Die folgende Formel wird zur Berechnung der Falsch-Positiv-Rate (FPR) verwendet:

                                        false positives       
            False positive rate   =   ________________________
                                        total negatives

Die folgende Formel wird für die Berechnung der Falsch-Positiv-Rate verwendet:

            False positive rate difference  =   FPR of monitored group - FPR of reference group

Differenz der False Discovery Rate

Die Differenz der Falschfindungsrate gibt die Anzahl der falsch-positiven Transaktionen als Prozentsatz aller Transaktionen mit einem positiven Ergebnis an. Sie beschreibt die Häufigkeit von falsch-positiven Ergebnissen aus allen positiven Transaktionen.

  • Beschreibung: Gibt die Differenz der Falschentdeckungsrate für die überwachte Gruppe und die Referenzgruppe zurück.

    • Bei 0: Beide Gruppen haben gleiche Chancen.
  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Ja

  • Rechnen Sie nach:

Zur Berechnung der Falschentdeckungsrate (FDR) wird die folgende Formel verwendet:

                                                false positives        
            False discovery rate  =   _________________________________________
                                        true positives + false positives

Zur Berechnung der Differenz der Falschfindungsrate wird die folgende Formel verwendet:

            False discovery rate difference  = FDR of monitored group - FDR of reference group

Differenz der Falschauslassungsquote

Die Differenz der Falschauslassungsquote gibt die Anzahl der falsch negativen Vorgänge als Prozentsatz aller Vorgänge mit negativem Ergebnis an. Sie beschreibt die Häufigkeit von falsch-negativen Ergebnissen aus allen negativen Transaktionen.

  • Beschreibung: Liefert die Differenz der Falschauslassungsrate für die überwachte und die Referenzgruppe

    • Bei 0: Beide Gruppen haben gleiche Chancen.
  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Ja

  • Rechnen Sie nach:

Für die Berechnung der Falschauslassungsquote (FOR) wird folgende Formel verwendet:

                                                false negatives        
            False omission rate   =   ________________________________________
                                        true negatives + false negatives

Die folgende Formel wird für die Differenz der Falschauslassungsrate verwendet:

            False omission rate difference  =   FOR of monitored group - FOR of reference group                                         

Differenz bei Fehlerrate

Die Fehlerquotendifferenz berechnet den Prozentsatz der Transaktionen, die von Ihrem Modell falsch bewertet werden.

  • Beschreibung: Gibt die Differenz der Fehlerquote für die überwachte Gruppe und die Referenzgruppe zurück.

    • Bei 0: Beide Gruppen haben gleiche Chancen.
  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Ja

  • Rechnen Sie nach:

Zur Berechnung der Fehlerquote (ER) wird die folgende Formel verwendet:

                                false positives + false negatives        
            Error rate  =   ___________________________________________
                                all positives + all negatives

Zur Berechnung der Fehlerquotendifferenz wird die folgende Formel verwendet:

            Error rate difference  = ER of monitored group - ER of reference group

Durchschnittliche Odds-Differenz

Die durchschnittliche Odds-Differenz gibt den Prozentsatz der Transaktionen an, die von Ihrem Modell falsch bewertet wurden.

  • Beschreibung: Gibt die Differenz der Fehlerquote für die überwachte Gruppe und die Referenzgruppe zurück.

    • Bei 0: Beide Gruppen haben gleiche Chancen.
  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Ja

  • Rechnen Sie nach:

Die folgende Formel wird zur Berechnung der Falsch-Positiv-Rate (FPR) verwendet:

                                        false positives       
            False positive rate   =   _________________________
                                        total negatives

Die folgende Formel wird für die Berechnung der True-Positive-Rate (TPR) verwendet:

                                        True positives      
            True positive rate   =   ______________________
                                        All positives

Die folgende Formel wird für die Berechnung der durchschnittlichen Odds-Differenz verwendet:

                                        (FPR monitored group - FPR reference group) + (TPR monitored group - TPR reference group)       
            Average odds difference  =   ___________________________________________________________________________________________

                                                                                    2

Durchschnittliche absolute Odds-Differenz

Die durchschnittliche absolute Odds-Differenz vergleicht den Durchschnitt der absoluten Differenz der Falsch-Positiv-Raten und der Wahr-Positiv-Raten zwischen den überwachten Gruppen und den Referenzgruppen.

  • Beschreibung: Gibt den Durchschnitt der absoluten Differenz der Falsch-Positiv-Rate und der Wahr-Positiv-Rate für die überwachte und die Referenzgruppe zurück.

    • Bei 0: Beide Gruppen haben gleiche Chancen.
  • Verwendet die Konfusionsmatrix zur Leistungsmessung: Ja

  • Rechnen Sie nach:

Die folgende Formel wird zur Berechnung der Falsch-Positiv-Rate (FPR) verwendet:

                                            false positives       
            False positive rate   =   ____________________________
                                            all negatives

Die folgende Formel wird für die Berechnung der True-Positive-Rate (TPR) verwendet:

                                        True positives      
            True positive rate   =   ________________________
                                        All positives

Die folgende Formel wird für die Berechnung der durchschnittlichen absoluten Odds-Differenz verwendet:

                                                |FPR monitored group - FPR reference group| + |TPR monitored group - TPR reference group|      
            Average absolute odds difference  =   ______________________________________________________________________________________________

                                                                                            2

Leistung mit Konfusionsmatrix messen

Die Konfusionsmatrix misst die Leistung und kategorisiert positive und negative Vorhersagen in vier Quadranten, die die Messung der tatsächlichen und vorhergesagten Werte darstellen, wie im folgenden Beispiel gezeigt:

Tatsächliche/vorhergesehene Negativ Positiv
Negativ TN FP
Positiv FN GP

Der wahre negative Quadrant (TN) repräsentiert Werte, die tatsächlich negativ sind und als negativ vorhergesagt wurden, und der wahre positive Quadrant (TP) repräsentiert Werte, die tatsächlich positiv sind und als positiv vorhergesagt wurden. Der falsch-positive Quadrant (FP) repräsentiert Werte, die tatsächlich negativ sind, aber als positiv vorhergesagt werden, und der falsch-negative Quadrant (FN) repräsentiert Werte, die tatsächlich positiv sind, aber als negativ vorhergesagt werden.

Hinweis: Leistungsmessungen werden für Regressionsmodelle nicht unterstützt.

Übergeordnetes Thema: Konfiguration von Fairnessbewertungen

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen