Aufdeckung des Risikos persönlicher Daten für AI

Letzte Aktualisierung: 10. Feb. 2025
Aufdeckung des Risikos persönlicher Daten für AI
Datenschutz Symbol für Datenschutzrisiken.
Datenschutz
Output-Risiken
Verstärkt durch generative KI

Beschreibung

Wenn personenbezogene Daten (PII) oder sensible persönliche Daten (SPI) in den Trainingsdaten, den Feinabstimmungsdaten oder als Teil der Eingabeaufforderung verwendet werden, können die Modelle diese Daten in der erzeugten Ausgabe offenlegen. Die Weitergabe persönlicher Informationen ist eine Art von Datenleck.

Warum ist die Offenlegung personenbezogener Daten ein Problem für Stiftungsmodelle?

Die gemeinsame Nutzung der PI beeinträchtigt die Rechte der Menschen und macht sie angreifbarer.

Hintergrundbild für Risiken im Zusammenhang mit der Ausgabe
Beispiel

Offenlegung persönlicher Informationen

Laut dem Quellartikel war ChatGPT von einem Fehler betroffen, der den Chatverlauf von Titeln und aktiven Benutzern für andere Benutzer sichtbar machte. Später teilte OpenAI mit, dass sogar noch mehr private Daten einer kleinen Anzahl von Nutzern offengelegt wurden, darunter der Vor- und Nachname des aktiven Nutzers, seine E-Mail-Adresse, seine Zahlungsadresse, die letzten vier Ziffern seiner Kreditkartennummer und das Ablaufdatum der Kreditkarte. Darüber hinaus wurde berichtet, dass die Zahlungsinformationen von 1.2% der ChatGPT Plus-Abonnenten durch den Ausfall ebenfalls gefährdet waren.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.