0 / 0

Extraktionsangriffsrisiko für KI

Letzte Aktualisierung: 20. Juni 2025
Extraktionsangriffsrisiko für KI
Robustheit Symbol für Robustheitsrisiken.
Robustheit: Manipulation des Modellverhaltens
Risiken der Schlussfolgerung
Verstärkt durch generative KI

Beschreibung

Bei einem Extraktionsangriff wird versucht, ein KI-Modell zu kopieren oder zu stehlen, indem der Eingaberaum entsprechend gesampelt und die Ausgaben beobachtet werden, um ein Ersatzmodell zu erstellen, das sich ähnlich verhält.

Warum ist Extraktionsattacke ein Problem für Basismodelle?

Nach einem erfolgreichen Extraktionsangriff kann der Angreifer weitere Angriffe durchführen, um an wertvolle Informationen wie sensible persönliche Daten oder geistiges Eigentum zu gelangen.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.