Risiko von Attributinferenzattacken für KI

Letzte Aktualisierung: 10. Feb. 2025
Risiko von Attributinferenzattacken für KI
Datenschutz Symbol für Datenschutzrisiken.
Datenschutz
Risiken der Schlussfolgerung
Verstärkt durch generative KI

Beschreibung

Bei einem Angriff auf die Attributinferenz wird ein Modell wiederholt abgefragt, um festzustellen, ob bestimmte sensible Merkmale über Personen, die am Training eines Modells teilgenommen haben, abgeleitet werden können. Diese Attacken treten auf, wenn ein Angreifer einige Vorkenntnisse über die Trainingsdaten hat und dieses Wissen verwendet, um die sensiblen Daten abzuleiten.

Warum ist eine Attacke auf Attributinferenz ein Problem für Basismodelle?

Mit einem erfolgreichen Angriff kann der Angreifer wertvolle Informationen wie sensible personenbezogene Daten oder geistiges Eigentum gewinnen.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.