0 / 0
Zurück zur englischen Version der Dokumentation
Nachgelagerte Umschulungsrisiken für KI

Nachgelagerte Umschulungsrisiken für KI

Risiken im Zusammenhang mit der Eingabe
Trainings-und Optimierungsphase
Wertausrichtung
Neu bei generativer KI

Beschreibung

Unerwünschte (z. B. ungenaue, unangemessene Inhalte des Benutzers) Ausgabe von nachgeordneten Anwendungen für Umschulungszwecke verwenden.

Warum ist Downstream-Umschulung ein Anliegen für Basismodelle?

Die Wiederverwendung nachgeschalteter Ausgaben für das erneute Training eines Modells ohne Implementierung einer ordnungsgemäßen Benutzerprüffunktion erhöht die Wahrscheinlichkeit, dass unerwünschte Ausgaben in die Trainings-oder Optimierungsdaten des Modells einbezogen werden. Dies wiederum kann noch mehr unerwünschte Leistung erzeugen. Falsches Modellverhalten kann dazu führen, dass Geschäftsentitäten Rechtsfolgen oder Rufschädigung haben. Werden die Gesetze zur Datenübertragung nicht eingehalten, kann dies zu Bußgeldern und anderen Rechtsfolgen führen.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Modellzusammenbruch aufgrund von Training mit KI-generierten Inhalten

Wie im Quellenartikel erwähnt, untersuchte eine Gruppe von Forschern aus Großbritannien und Kanada das Problem der Verwendung von KI-generierten Inhalten für die Ausbildung anstelle von vom Menschen generierten Inhalten. Sie stellten fest, dass die großen Sprachmodelle hinter der Technologie potenziell auf anderen KI-generierten Inhalten trainiert werden könnten. Da sich generierte Daten weiterhin im Internet verbreiten, kann dies zu einem Phänomen führen, das sie als "Modellkollaps" geprägt haben.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen