Zurück zur englischen Version der Dokumentation
Extraktionsangriffsrisiko für KI
Extraktionsangriffsrisiko für KI
Beschreibung
Eine Extraktionsattacke versucht, ein KI-Modell zu kopieren oder zu stehlen, indem der Eingabebereich entsprechend abgetastet und die Ausgaben beobachtet werden, um ein Ersatzmodell zu erstellen, das sich ähnlich verhält.
Warum ist Extraktionsattacke ein Problem für Basismodelle?
Mit einem erfolgreichen Angriff kann der Angreifer wertvolle Informationen wie sensible personenbezogene Daten oder geistiges Eigentum gewinnen.
Übergeordnetes Thema: AI-Risikoatlas