0 / 0
Zurück zur englischen Version der Dokumentation
Risiko der Datenverzerrung bei KI
Letzte Aktualisierung: 12. Dez. 2024
Risiko der Datenverzerrung bei KI
Fairness Symbol für Fairness-Risiken.
Risiken im Zusammenhang mit der Eingabe
Schulungs- und Abstimmungsphase
Fairness
Verstärkt durch generative KI

Beschreibung

Historische und gesellschaftliche Verzerrungen, die in den Daten vorhanden sind, werden zum Training und zur Feinabstimmung des Modells verwendet.

Warum ist die Datenverzerrung bei Stiftungsmodellen ein Problem?

Das Trainieren eines KI-Systems auf Daten mit Verzerrungen, z. B. historisch oder gesellschaftlich bedingten Verzerrungen, kann zu verzerrten oder schiefen Ergebnissen führen, die bestimmte Gruppen oder Einzelpersonen ungerecht darstellen oder anderweitig diskriminieren können.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Vorurteile im Gesundheitswesen

Laut dem Forschungsartikel über die Verstärkung von Ungleichheiten in der Medizin mit Hilfe von Daten und KI-Anwendungen, um die Gesundheitsversorgung der Menschen zu verändern, ist diese nur so stark wie die Daten hinter den Bemühungen. So kann beispielsweise die Verwendung von Ausbildungsdaten, in denen Minderheiten nur schwach vertreten sind oder die eine bereits ungleiche Versorgung widerspiegeln, zu einer größeren gesundheitlichen Ungleichheit führen.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen