Zurück zur englischen Version der Dokumentation
Risiko von Attributinferenzattacken für KI
Risiko von Attributinferenzattacken für KI
Beschreibung
Eine Attributinferenzattacke wird verwendet, um zu erkennen, ob bestimmte sensible Merkmale von Personen abgeleitet werden können, die am Training eines Modells teilgenommen haben. Diese Attacken treten auf, wenn ein Angreifer einige Vorkenntnisse über die Trainingsdaten hat und dieses Wissen verwendet, um die sensiblen Daten abzuleiten.
Warum ist eine Attacke auf Attributinferenz ein Problem für Basismodelle?
Mit einem erfolgreichen Angriff kann der Angreifer wertvolle Informationen wie sensible personenbezogene Daten oder geistiges Eigentum gewinnen.
Übergeordnetes Thema: AI-Risikoatlas