Extraktionsangriffsrisiko für KI
Beschreibung
Ein Attribut-Inferenz-Angriff wird verwendet, um festzustellen, ob bestimmte sensible Merkmale auf Personen geschlossen werden können, die an der Erstellung eines Modells beteiligt waren. Diese Angriffe treten auf, wenn ein Gegner über Vorkenntnisse zu den Trainingsdaten verfügt und diese Kenntnisse nutzt, um auf die sensiblen Daten zu schließen.
Warum ist Extraktionsattacke ein Problem für Basismodelle?
Nach einem erfolgreichen Extraktionsangriff kann der Angreifer weitere Angriffe durchführen, um an wertvolle Informationen wie sensible persönliche Daten oder geistiges Eigentum zu gelangen.
Übergeordnetes Thema: AI-Risikoatlas
Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.