Risiko einer unsachgemäßen Umschulung für KI

Letzte Aktualisierung: 06. Feb. 2025
Risiko einer unsachgemäßen Umschulung für KI
Wertorientierung
Risiken bei Trainingsdaten
Verstärkt durch generative KI

Beschreibung

Die Verwendung unerwünschter Ergebnisse (z. B. ungenauer, unangemessener und benutzergenerierter Inhalte) für Umschulungszwecke kann zu unerwartetem Modellverhalten führen.

Warum ist eine unsachgemäße Umschulung für Stiftungsmodelle ein Problem?

Die Wiederverwendung von generierten Ergebnissen für die Umschulung eines Modells ohne ordnungsgemäße menschliche Überprüfung erhöht die Wahrscheinlichkeit, dass unerwünschte Ergebnisse in die Trainings- oder Abstimmungsdaten des Modells einfließen. Dieses Modell kann wiederum noch mehr unerwünschte Ergebnisse hervorbringen.

Hintergrundbild für Risiken im Zusammenhang mit Trainingsdaten
Beispiel

Modellkollaps aufgrund von Training mit KI-generierten Inhalten

Wie im Quellartikel erwähnt, untersuchte eine Gruppe von Forschern aus Großbritannien und Kanada das Problem, KI-generierte Inhalte für Schulungen anstelle von menschlich generierten Inhalten zu verwenden. Sie stellten fest, dass die großen Sprachmodelle, die hinter der Technologie stehen, möglicherweise auch auf andere KI-generierte Inhalte trainiert werden könnten. Da sich die generierten Daten weiterhin in Scharen im Internet verbreiten, kann dies zu einem Phänomen führen, das sie als "Modellkollaps" bezeichnet haben

Übergeordnetes Thema: KI-Risikoatlas

Wir stellen Beispiele aus der Presse vor, um viele der Risiken der Stiftungsmodelle zu erläutern. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch nicht abgeschlossen oder wurden bereits gelöst. Ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf eine Minderung hinzuarbeiten. Die Hervorhebung dieser Beispiele dient ausschließlich der Veranschaulichung.