Beschreibung
Generierte Inhalte können bestimmte Gruppen oder Einzelpersonen ungerecht darstellen.
Warum ist Ausgabeverzerrung ein Problem für Basismodelle?
Verzerrungen können Benutzern der KI-Modelle schaden und bestehende diskriminierende Verhaltensweisen vergrößern.
Verzerrte generierte Bilder
Lensa AI ist eine mobile App mit generativen Funktionen, die auf Stable Diffusion trainiert werden, die "Magic Avatars" basierend auf Bildern generieren kann, die Benutzer von sich selbst hochladen. Nach dem Quellenbericht, einige Benutzer entdeckt, dass generierte Avatare sexualisiert und razialisiert.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.