0 / 0
Zurück zur englischen Version der Dokumentation
Unverzügliche Risiken für KI

Unverzügliche Risiken für KI

Risiken im Zusammenhang mit der Eingabe
Inferenz
Zuverlässigkeit
Verstärkt durch generative KI

Beschreibung

Ein Angriff auf ein Eingabeaufforderungsleck versucht, die Systemeingabeaufforderung eines Modells zu extrahieren (auch als Systemnachricht bezeichnet).

Warum ist ein sofortiges Leck ein Problem für Basismodelle?

Bei einem erfolgreichen Angriff wird die im Modell verwendete Systemeingabeaufforderung kopiert. Je nach Inhalt dieser Eingabeaufforderung erhält der Angreifer möglicherweise Zugriff auf wertvolle Informationen, wie z. B. sensible personenbezogene Daten oder geistiges Eigentum, und kann einen Teil der Funktionalität des Modells replizieren.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen