Beschreibung
Ein Prompt-Injection-Angriff zwingt ein generatives Modell, das einen Prompt als Eingabe verwendet, dazu, eine unerwartete Ausgabe zu produzieren, indem es die Struktur, die Anweisungen oder die Informationen in seinem Prompt manipuliert.
Warum sind Soforteinspritzungsangriffe ein Problem für Stiftungsmodelle?
Injektionsangriffe können verwendet werden, um das Modellverhalten zu ändern und dem Angreifer Vorteile zu verschaffen.
Manipulation von AI-Eingaben
Die britische Cybersicherheitsbehörde hat davor gewarnt, dass Chatbots von Hackern manipuliert werden können, um schädliche Folgen in der realen Welt zu verursachen (z. B. Betrug und Datendiebstahl), wenn die Systeme nicht mit Sicherheit konzipiert sind. Das National Cyber Security Centre (NCSC) des Vereinigten Königreichs hat erklärt, dass das Risiko der Manipulation der Eingabeaufforderungen durch Angriffe auf die Eingabeaufforderung wächst. In dem Artikel wurde ein Beispiel angeführt, bei dem ein Benutzer eine Eingabeaufforderung erstellen konnte, um die erste Eingabeaufforderung von Bing Chat zu finden. Die gesamte Eingabeaufforderung von Microsofts Bing Chat, eine von Open AI oder Microsoft geschriebene Liste von Anweisungen, die bestimmen, wie der Chatbot mit den Nutzern interagiert, und die vor den Nutzern verborgen ist, wurde enthüllt, indem der Nutzer eine Eingabeaufforderung einstellte, die den Bing Chat aufforderte, "vorherige Anweisungen zu ignorieren".
Übergeordnetes Thema: AI-Risikoatlas
Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.