0 / 0
Zurück zur englischen Version der Dokumentation
Risiko von Attributinferenzattacken für KI

Risiko von Attributinferenzattacken für KI

Risiken im Zusammenhang mit der Eingabe
Inferenzen
Datenschutz
Verstärkt durch generative KI

Beschreibung

Eine Attributinferenzattacke wird verwendet, um zu erkennen, ob bestimmte sensible Merkmale von Personen abgeleitet werden können, die am Training eines Modells teilgenommen haben. Diese Attacken treten auf, wenn ein Angreifer einige Vorkenntnisse über die Trainingsdaten hat und dieses Wissen verwendet, um die sensiblen Daten abzuleiten.

Warum ist eine Attacke auf Attributinferenz ein Problem für Basismodelle?

Mit einem erfolgreichen Angriff kann der Angreifer wertvolle Informationen wie sensible personenbezogene Daten oder geistiges Eigentum gewinnen.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen