0 / 0

Unverzügliche Risiken für KI

Letzte Aktualisierung: 20. Juni 2025
Unverzügliche Risiken für KI
Robustheit Symbol für Robustheitsrisiken.
Robustheit: prompte Angriffe
Risiken der Schlussfolgerung
Spezifisch für generative KI

Beschreibung

Bei einem Prompt-Leak-Angriff wird versucht, den Systemprompt eines Modells (auch als Systemnachricht bezeichnet) zu extrahieren.

Warum ist ein sofortiges Leck ein Problem für Basismodelle?

Bei einem erfolgreichen Prompt-Leaking-Angriff wird der im Modell verwendete Systemprompt kopiert. Je nach Inhalt dieser Eingabeaufforderung erhält der Angreifer möglicherweise Zugriff auf wertvolle Informationen, wie z. B. sensible personenbezogene Daten oder geistiges Eigentum, und kann einen Teil der Funktionalität des Modells replizieren.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.