Entscheidungsverzerrungsrisiko für KI
Beschreibung
Wenn eine Gruppe aufgrund von Modellentscheidungen gegenüber einer anderen Gruppe ungerecht begünstigt ist.
Warum ist Entscheidungsverzerrung ein Problem für Basismodelle?
Verzerrungen können Personen schaden, die von den Entscheidungen des Modells betroffen sind. Geschäftsentitäten können Bußgelder, Rufschädigung, Betriebsstörungen und andere rechtliche Folgen haben.
Ungerecht begünstigte Gruppen
Die Gender Shades Studie 2018 hat gezeigt, dass Algorithmen für maschinelles Lernen basierend auf Klassen wie Rasse und Geschlecht diskriminieren können. Forscher bewerteten kommerzielle Geschlechterklassifizierungssysteme, die von Unternehmen wie Microsoft, IBMund Amazon verkauft werden, und zeigten, dass dunkelhäutige Frauen die am meisten fehlklassifizierte Gruppe sind (mit Fehlerraten von bis zu 35 Prozent). Im Vergleich dazu betrug die Fehlerquote bei hellhäutigen Einlagen nicht mehr als 1%.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.