Beschreibung
Eine Verzerrung der Entscheidung liegt vor, wenn eine Gruppe aufgrund von Entscheidungen des Modells gegenüber einer anderen ungerechtfertigt bevorzugt wird. Dies könnte durch Verzerrungen in den Daten verursacht und durch das Training des Modells noch verstärkt werden.
Warum ist Entscheidungsverzerrung ein Problem für Basismodelle?
Voreingenommenheit kann Personen schaden, die von den Entscheidungen des Modells betroffen sind.
Ungerecht begünstigte Gruppen
Die Gender Shades Studie 2018 hat gezeigt, dass Algorithmen für maschinelles Lernen basierend auf Klassen wie Rasse und Geschlecht diskriminieren können. Forscher bewerteten kommerzielle Geschlechterklassifizierungssysteme, die von Unternehmen wie Microsoft, IBMund Amazon verkauft werden, und zeigten, dass dunkelhäutige Frauen die am meisten fehlklassifizierte Gruppe sind (mit Fehlerraten von bis zu 35 Prozent). Im Vergleich dazu betrug die Fehlerquote bei hellhäutigen Einlagen nicht mehr als 1%.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.