0 / 0
Zurück zur englischen Version der Dokumentation
Risiko von Attacken auf Mitgliedschaftsinferenz für KI

Risiko von Attacken auf Mitgliedschaftsinferenz für KI

Risiken im Zusammenhang mit der Eingabe
Inferenz
Datenschutz
Traditionelles KI-Risiko

Beschreibung

Anhand eines trainierten Modells und einer Datenstichprobe ermittelt ein Angreifer den Eingabebereich entsprechend und beobachtet die Ausgaben, um abzuleiten, ob diese Stichprobe Teil des Modelltrainings war. Dies wird als Inferenzattacke auf die Mitgliedschaft bezeichnet.

Warum ist ein Inferenzangriff auf Mitgliedschaft ein Problem für Basismodelle?

Wenn Sie ermitteln, ob eine Datenstichprobe für Trainingsdaten verwendet wurde, können Sie erkennen, welche Daten zum Trainieren eines Modells verwendet wurden. So erhalten Wettbewerber möglicherweise Einblick in das Trainieren eines Modells und die Möglichkeit, das Modell zu replizieren oder zu manipulieren.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen