Risiko einer unsachgemäßen Umschulung für KI
Beschreibung
Die Verwendung unerwünschter Ergebnisse (z. B. ungenauer, unangemessener und benutzergenerierter Inhalte) für Umschulungszwecke kann zu unerwartetem Modellverhalten führen.
Warum ist eine unsachgemäße Umschulung für Stiftungsmodelle ein Problem?
Die Wiederverwendung von generierten Ergebnissen für die Umschulung eines Modells ohne ordnungsgemäße menschliche Überprüfung erhöht die Wahrscheinlichkeit, dass unerwünschte Ergebnisse in die Trainings- oder Abstimmungsdaten des Modells einfließen. Dieses Modell kann wiederum noch mehr unerwünschte Ergebnisse hervorbringen.

Modellkollaps aufgrund von Training mit KI-generierten Inhalten
Wie im Quellartikel erwähnt, untersuchte eine Gruppe von Forschern aus Großbritannien und Kanada das Problem, KI-generierte Inhalte für Schulungen anstelle von menschlich generierten Inhalten zu verwenden. Sie stellten fest, dass die großen Sprachmodelle, die hinter der Technologie stehen, möglicherweise auch auf andere KI-generierte Inhalte trainiert werden könnten. Da sich die generierten Daten weiterhin in Scharen im Internet verbreiten, kann dies zu einem Phänomen führen, das sie als "Modellkollaps" bezeichnet haben
Übergeordnetes Thema: KI-Risikoatlas
Wir stellen Beispiele aus der Presse vor, um viele der Risiken der Stiftungsmodelle zu erläutern. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch nicht abgeschlossen oder wurden bereits gelöst. Ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf eine Minderung hinzuarbeiten. Die Hervorhebung dieser Beispiele dient ausschließlich der Veranschaulichung.