0 / 0
Zurück zur englischen Version der Dokumentation
Extraktionsangriffsrisiko für KI

Extraktionsangriffsrisiko für KI

Risiken im Zusammenhang mit der Eingabe
Inferenzen
Zuverlässigkeit
Verstärkt durch generative KI

Beschreibung

Eine Extraktionsattacke versucht, ein KI-Modell zu kopieren oder zu stehlen, indem der Eingabebereich entsprechend abgetastet und die Ausgaben beobachtet werden, um ein Ersatzmodell zu erstellen, das sich ähnlich verhält.

Warum ist Extraktionsattacke ein Problem für Basismodelle?

Mit einem erfolgreichen Angriff kann der Angreifer wertvolle Informationen wie sensible personenbezogene Daten oder geistiges Eigentum gewinnen.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen