Beschreibung
Da abgeleitete Modelle dazu neigen, Ausgaben wie die bereitgestellte Eingabe zu erzeugen, kann das Modell aufgefordert werden, bestimmte Arten von Informationen anzuzeigen. Beispielsweise erhöht das Hinzufügen von persönlichen Informationen in der Eingabeaufforderung die Wahrscheinlichkeit, dass ähnliche Arten von persönlichen Informationen in der Ausgabe generiert werden. Wenn personenbezogene Daten in das Training des Modells einbezogen wurden, besteht die Möglichkeit, dass sie offengelegt werden.
Warum ist prompte Grundierung ein Anliegen für Gründungsmodelle?
Jailbreaking-Angriffe können dazu verwendet werden, das Modellverhalten zu verändern und dem Angreifer Vorteile zu verschaffen
Übergeordnetes Thema: AI-Risikoatlas
Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.