0 / 0
Zurück zur englischen Version der Dokumentation
Datenverzerrungsrisiko für KI

Datenverzerrungsrisiko für KI

Risiken im Zusammenhang mit der Eingabe
Trainings-und Optimierungsphase
Fairness
Verstärkt durch generative KI

Beschreibung

Historische, repräsentative und gesellschaftliche Verzerrungen in den Daten, die zum Trainieren und Optimieren des Modells verwendet werden, können sich negativ auf das Modellverhalten auswirken.

Warum ist Datenverzerrung ein Problem für Basismodelle?

Das Trainieren eines KI-Systems auf Daten mit Verzerrungen, wie z. B. historische oder repräsentative Verzerrungen, könnte zu verzerrten oder verzerrten Ergebnissen führen, die bestimmte Gruppen oder Einzelpersonen ungerecht darstellen oder anderweitig diskriminieren können. Neben negativen gesellschaftlichen Auswirkungen könnten Unternehmen rechtliche Folgen oder Rufschädigung durch verzerrte Modellergebnisse haben.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Healthcare-Verzerrung

Laut dem Forschungsartikel über die Stärkung der Disparitäten in der Medizin unter Verwendung von Daten und KI-Anwendungen, um zu transformieren, wie Menschen erhalten das Gesundheitswesen ist nur so stark wie die Daten hinter dem Aufwand. Zum Beispiel kann die Verwendung von Trainingsdaten mit schlechter Minderheitendarstellung oder die das widerspiegeln, was bereits Ungleichbehandlung ist, zu erhöhten gesundheitlichen Ungleichheiten führen.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen