0 / 0
Zurück zur englischen Version der Dokumentation
Promptes Injektionsangriffsrisiko für AI
Letzte Aktualisierung: 12. Dez. 2024
Promptes Injektionsangriffsrisiko für AI
Robustheit Symbol für Robustheitsrisiken.
Risiken im Zusammenhang mit der Eingabe
Inferenz
Zuverlässigkeit
Neu bei generativer KI

Beschreibung

Ein Prompt-Injection-Angriff zwingt ein generatives Modell, das einen Prompt als Eingabe verwendet, dazu, eine unerwartete Ausgabe zu produzieren, indem es die Struktur, die Anweisungen oder die Informationen in seinem Prompt manipuliert.

Warum sind Soforteinspritzungsangriffe ein Problem für Stiftungsmodelle?

Injektionsangriffe können verwendet werden, um das Modellverhalten zu ändern und dem Angreifer Vorteile zu verschaffen.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Manipulation von AI-Eingaben

Die britische Cybersicherheitsbehörde hat davor gewarnt, dass Chatbots von Hackern manipuliert werden können, um schädliche Folgen in der realen Welt zu verursachen (z. B. Betrug und Datendiebstahl), wenn die Systeme nicht mit Sicherheit konzipiert sind. Das National Cyber Security Centre (NCSC) des Vereinigten Königreichs hat erklärt, dass das Risiko der Manipulation der Eingabeaufforderungen durch Angriffe auf die Eingabeaufforderung wächst. In dem Artikel wurde ein Beispiel angeführt, bei dem ein Benutzer eine Eingabeaufforderung erstellen konnte, um die erste Eingabeaufforderung von Bing Chat zu finden. Die gesamte Eingabeaufforderung von Microsofts Bing Chat, eine von Open AI oder Microsoft geschriebene Liste von Anweisungen, die bestimmen, wie der Chatbot mit den Nutzern interagiert, und die vor den Nutzern verborgen ist, wurde enthüllt, indem der Nutzer eine Eingabeaufforderung einstellte, die den Bing Chat aufforderte, "vorherige Anweisungen zu ignorieren".

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen