Ausgabeverzerrungsrisiko für KI
Beschreibung
Generierte Inhalte können bestimmte Gruppen oder Einzelpersonen ungerecht darstellen.
Warum ist Ausgabeverzerrung ein Problem für Basismodelle?
Verzerrungen können Benutzern der KI-Modelle schaden und bestehende diskriminierende Verhaltensweisen vergrößern.

Verzerrte generierte Bilder
Lensa AI ist eine mobile App mit generativen Funktionen, die auf Stable Diffusion trainiert werden, die "Magic Avatars" basierend auf Bildern generieren kann, die Benutzer von sich selbst hochladen. Nach dem Quellenbericht, einige Benutzer entdeckt, dass generierte Avatare sexualisiert und razialisiert.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.