0 / 0
Zurück zur englischen Version der Dokumentation
Datenvergiftungsrisiko für KI

Datenvergiftungsrisiko für KI

Risiken im Zusammenhang mit der Eingabe
Trainings-und Optimierungsphase
Zuverlässigkeit
Traditionelles KI-Risiko

Beschreibung

Eine Art von Angriffen, bei denen ein Angreifer oder böswilliger Insider absichtlich beschädigte, falsche, irreführende oder falsche Stichproben in das Trainings-oder Feinsteuerungsdataset einfügt.

Warum ist Datenvergiftung ein Problem für Basismodelle?

Poisoning-Daten können dazu führen, dass das Modell auf ein zerstörerisches Datenmuster reagiert und die gewünschte Ausgabe des Gegners erzeugt. Es kann zu einem Sicherheitsrisiko führen, bei dem Gegner das Modellverhalten zu ihrem eigenen Vorteil erzwingen können. Neben unbeabsichtigten und potenziell schädlichen Ergebnissen kann eine Modellfehlausrichtung durch Datenvergiftung dazu führen, dass Geschäftsentitäten rechtlichen Konsequenzen oder Rufschädigung ausgesetzt sind.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen