0 / 0
Zurück zur englischen Version der Dokumentation
Entscheidungsverzerrungsrisiko für KI

Entscheidungsverzerrungsrisiko für KI

Der Ausgabe zugeordnete Risiken
Fairness
Traditionelles KI-Risiko

Beschreibung

Wenn eine Gruppe aufgrund von Modellentscheidungen gegenüber einer anderen Gruppe ungerecht begünstigt ist.

Warum ist Entscheidungsverzerrung ein Problem für Basismodelle?

Verzerrungen können Personen schaden, die von den Entscheidungen des Modells betroffen sind. Geschäftsentitäten können Bußgelder, Rufschädigung, Betriebsstörungen und andere rechtliche Folgen haben.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Ungerecht begünstigte Gruppen

Die Gender Shades Studie 2018 hat gezeigt, dass Algorithmen für maschinelles Lernen basierend auf Klassen wie Rasse und Geschlecht diskriminieren können. Forscher bewerteten kommerzielle Geschlechterklassifizierungssysteme, die von Unternehmen wie Microsoft, IBMund Amazon verkauft werden, und zeigten, dass dunkelhäutige Frauen die am meisten fehlklassifizierte Gruppe sind (mit Fehlerraten von bis zu 35 Prozent). Im Vergleich dazu betrug die Fehlerquote bei hellhäutigen Einlagen nicht mehr als 1%.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen