Nachgelagerte Umschulungsrisiken für KI
Beschreibung
Unerwünschte (z. B. ungenaue, unangemessene Inhalte des Benutzers) Ausgabe von nachgeordneten Anwendungen für Umschulungszwecke verwenden.
Warum ist Downstream-Umschulung ein Anliegen für Basismodelle?
Die Wiederverwendung nachgeschalteter Ausgaben für das erneute Training eines Modells ohne Implementierung einer ordnungsgemäßen Benutzerprüffunktion erhöht die Wahrscheinlichkeit, dass unerwünschte Ausgaben in die Trainings-oder Optimierungsdaten des Modells einbezogen werden. Dies wiederum kann noch mehr unerwünschte Leistung erzeugen. Falsches Modellverhalten kann dazu führen, dass Geschäftsentitäten Rechtsfolgen oder Rufschädigung haben. Werden die Gesetze zur Datenübertragung nicht eingehalten, kann dies zu Bußgeldern und anderen Rechtsfolgen führen.
![Hintergrundbild für Risiken im Zusammenhang mit der Eingabe](images/background-input-example.jpg)
Modellzusammenbruch aufgrund von Training mit KI-generierten Inhalten
Wie im Quellenartikel erwähnt, untersuchte eine Gruppe von Forschern aus Großbritannien und Kanada das Problem der Verwendung von KI-generierten Inhalten für die Ausbildung anstelle von vom Menschen generierten Inhalten. Sie stellten fest, dass die großen Sprachmodelle hinter der Technologie potenziell auf anderen KI-generierten Inhalten trainiert werden könnten. Da sich generierte Daten weiterhin im Internet verbreiten, kann dies zu einem Phänomen führen, das sie als "Modellkollaps" geprägt haben.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.