0 / 0
Zurück zur englischen Version der Dokumentation
Fehlendes Modelltransparenzrisiko für KI
Letzte Aktualisierung: 12. Dez. 2024
Fehlendes Modelltransparenzrisiko für KI
Verwaltung Symbol für Governance-Risiken.
Nicht technische Risiken
Verwaltung
Traditionelles KI-Risiko

Beschreibung

Mangelnde Modelltransparenz ist auf die unzureichende Dokumentation des Modellentwurfs, der Entwicklung und des Bewertungsprozesses sowie auf das Fehlen von Einblicken in das Innenleben des Modells zurückzuführen.

Warum ist Mangel an Modelltransparenz ein Anliegen für Basismodelle?

Transparenz ist wichtig für die Einhaltung gesetzlicher Bestimmungen, für KI-Ethik und für die geeignete Verwendung von Modellen. Fehlende Informationen können die Risikobewertung, die Änderung des Modells oder seine Wiederverwendung erschweren Wissen darüber, wer ein Modell erstellt hat, kann auch ein wichtiger Faktor bei der Entscheidung sein, ob es vertrauenswürdig ist. Darüber hinaus spielt auch die Transparenz darüber, wie die Risiken des Modells ermittelt, bewertet und gemindert wurden, eine Rolle bei der Bestimmung der Modellrisiken, der Feststellung der Eignung des Modells und der Regelung der Verwendung des Modells.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Offenlegung von Daten-und Modellmetadaten

OpenAI‘s ist ein Beispiel für den Zwiespalt bei der Offenlegung von Daten und Modellmetadaten. Während viele Modellentwickler Wert darauf legen, Transparenz für Verbraucher zu ermöglichen, stellt die Offenlegung echte Sicherheitsprobleme dar und könnte die Fähigkeit erhöhen, die Modelle zu missbrauchen. Im technischen Bericht GPT-4 stellen die Autoren fest: "In Anbetracht des Wettbewerbsumfelds und der sicherheitstechnischen Auswirkungen groß angelegter Modelle wie GPT-4 enthält dieser Bericht keine weiteren Einzelheiten über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, den Aufbau des Datensatzes, die Trainingsmethode oder ähnliches."

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen