0 / 0
Zurück zur englischen Version der Dokumentation
Ausgabeverzerrungsrisiko für KI

Ausgabeverzerrungsrisiko für KI

Der Ausgabe zugeordnete Risiken
Fairness
Neu bei generativer KI

Beschreibung

Generierte Inhalte können bestimmte Gruppen oder Einzelpersonen ungerecht darstellen.

Warum ist Ausgabeverzerrung ein Problem für Basismodelle?

Verzerrungen können Benutzern der KI-Modelle schaden und bestehende diskriminierende Verhaltensweisen vergrößern. Geschäftsentitäten können Rufschädigung, Betriebsunterbrechungen und andere Folgen haben.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Verzerrte generierte Bilder

Lensa AI ist eine mobile App mit generativen Funktionen, die auf Stable Diffusion trainiert werden, die "Magic Avatars" basierend auf Bildern generieren kann, die Benutzer von sich selbst hochladen. Nach dem Quellenbericht, einige Benutzer entdeckt, dass generierte Avatare sexualisiert und razialisiert.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen