0 / 0
Zurück zur englischen Version der Dokumentation
Sofortinjektionsrisiko für KI

Sofortinjektionsrisiko für KI

Risiken im Zusammenhang mit der Eingabe
Inferenzen
Zuverlässigkeit
Neu bei generativer KI

Beschreibung

Ein Eingabeaufforderungs-Injection-Angriff zwingt ein Modell, aufgrund der in Eingabeaufforderungen enthaltenen Struktur oder Informationen eine unerwartete Ausgabe zu erzeugen.

Warum ist die sofortige Injektion ein Problem für Basismodelle?

Injektionsangriffe können verwendet werden, um das Modellverhalten zu ändern und dem Angreifer Vorteile zu verschaffen. Wenn sie nicht ordnungsgemäß kontrolliert werden, könnten Unternehmen Bußgelder, Rufschädigung und andere rechtliche Folgen haben.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen