0 / 0
Zurück zur englischen Version der Dokumentation
Ausgabeverzerrungsrisiko für KI
Letzte Aktualisierung: 12. Dez. 2024
Ausgabeverzerrungsrisiko für KI
Fairness Symbol für Fairness-Risiken.
Der Ausgabe zugeordnete Risiken
Fairness
Neu bei generativer KI

Beschreibung

Generierte Inhalte können bestimmte Gruppen oder Einzelpersonen ungerecht darstellen.

Warum ist Ausgabeverzerrung ein Problem für Basismodelle?

Verzerrungen können Benutzern der KI-Modelle schaden und bestehende diskriminierende Verhaltensweisen vergrößern.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Verzerrte generierte Bilder

Lensa AI ist eine mobile App mit generativen Funktionen, die auf Stable Diffusion trainiert werden, die "Magic Avatars" basierend auf Bildern generieren kann, die Benutzer von sich selbst hochladen. Nach dem Quellenbericht, einige Benutzer entdeckt, dass generierte Avatare sexualisiert und razialisiert.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen