0 / 0
Zurück zur englischen Version der Dokumentation
Entscheidungsverzerrungsrisiko für KI
Letzte Aktualisierung: 12. Dez. 2024
Entscheidungsverzerrungsrisiko für KI
Fairness Symbol für Fairness-Risiken.
Der Ausgabe zugeordnete Risiken
Fairness
Traditionelles KI-Risiko

Beschreibung

Eine Verzerrung der Entscheidung liegt vor, wenn eine Gruppe aufgrund von Entscheidungen des Modells gegenüber einer anderen ungerechtfertigt bevorzugt wird. Dies könnte durch Verzerrungen in den Daten verursacht und durch das Training des Modells noch verstärkt werden.

Warum ist Entscheidungsverzerrung ein Problem für Basismodelle?

Voreingenommenheit kann Personen schaden, die von den Entscheidungen des Modells betroffen sind.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Ungerecht begünstigte Gruppen

Die Gender Shades Studie 2018 hat gezeigt, dass Algorithmen für maschinelles Lernen basierend auf Klassen wie Rasse und Geschlecht diskriminieren können. Forscher bewerteten kommerzielle Geschlechterklassifizierungssysteme, die von Unternehmen wie Microsoft, IBMund Amazon verkauft werden, und zeigten, dass dunkelhäutige Frauen die am meisten fehlklassifizierte Gruppe sind (mit Fehlerraten von bis zu 35 Prozent). Im Vergleich dazu betrug die Fehlerquote bei hellhäutigen Einlagen nicht mehr als 1%.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen