0 / 0
Zurück zur englischen Version der Dokumentation
Mangel an Trainingsdaten - Transparenzrisiko für KI

Mangel an Trainingsdaten - Transparenzrisiko für KI

Transparenz Symbol für Transparenzrisiken.
Risiken im Zusammenhang mit der Eingabe
Trainings-und Optimierungsphase
Transparenz
Verstärkt durch generative KI

Beschreibung

Ohne genaue Dokumentation, wie die Daten eines Modells erfasst, kuratiert und zum Trainieren eines Modells verwendet wurden, kann es schwieriger sein, das Verhalten des Modells in Bezug auf die Daten zufriedenstellend zu erklären.

Warum ist die mangelnde Transparenz der Trainingsdaten ein Problem für Stiftungsmodelle?

Eine fehlende Datendokumentation schränkt die Möglichkeit ein, die mit den Daten verbundenen Risiken zu bewerten. Es reicht nicht aus, Zugang zu den Trainingsdaten zu haben. Wenn nicht aufgezeichnet wird, wie die Daten bereinigt, geändert oder generiert wurden, ist das Verhalten des Modells schwieriger zu verstehen und zu korrigieren. Mangelnde Datentransparenz wirkt sich auch auf die Wiederverwendung von Modellen aus, da es ohne eine solche Dokumentation schwierig ist, die Repräsentativität der Daten für eine neue Verwendung zu bestimmen.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Offenlegung von Daten-und Modellmetadaten

OpenAI‘s ist ein Beispiel für den Zwiespalt bei der Offenlegung von Daten und Modellmetadaten. Während viele Modellentwickler Wert darauf legen, Transparenz für Verbraucher zu ermöglichen, stellt die Offenlegung echte Sicherheitsprobleme dar und könnte die Fähigkeit erhöhen, die Modelle zu missbrauchen. Im technischen Bericht GPT-4 stellen die Autoren fest: "In Anbetracht des Wettbewerbsumfelds und der sicherheitstechnischen Auswirkungen groß angelegter Modelle wie GPT-4 enthält dieser Bericht keine weiteren Einzelheiten über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, den Aufbau des Datensatzes, die Trainingsmethode oder ähnliches."

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen