Entscheidungsverzerrungsrisiko für KI

Letzte Aktualisierung: 10. Feb. 2025
Entscheidungsverzerrungsrisiko für KI
Fairness Symbol für Fairness-Risiken.
Fairness
Output-Risiken
Traditionelles KI-Risiko

Beschreibung

Eine Verzerrung der Entscheidung liegt vor, wenn eine Gruppe aufgrund von Entscheidungen des Modells gegenüber einer anderen ungerechtfertigt bevorzugt wird. Dies könnte durch Verzerrungen in den Daten verursacht und durch das Training des Modells noch verstärkt werden.

Warum ist Entscheidungsverzerrung ein Problem für Basismodelle?

Voreingenommenheit kann Personen schaden, die von den Entscheidungen des Modells betroffen sind.

Hintergrundbild für Risiken im Zusammenhang mit der Ausgabe
Beispiel

Ungerecht begünstigte Gruppen

Die Gender Shades Studie 2018 hat gezeigt, dass Algorithmen für maschinelles Lernen basierend auf Klassen wie Rasse und Geschlecht diskriminieren können. Forscher bewerteten kommerzielle Geschlechterklassifizierungssysteme, die von Unternehmen wie Microsoft, IBMund Amazon verkauft werden, und zeigten, dass dunkelhäutige Frauen die am meisten fehlklassifizierte Gruppe sind (mit Fehlerraten von bis zu 35 Prozent). Im Vergleich dazu betrug die Fehlerquote bei hellhäutigen Einlagen nicht mehr als 1%.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.