Risiko der Angleichung der Datenschutzrechte für KI
Beschreibung
Zu den bestehenden Gesetzen könnte die Gewährung von Rechten für die betroffenen Personen gehören, z. B. Opt-out, Recht auf Auskunft und Recht auf Vergessenwerden.
Warum ist die Angleichung der Datenschutzrechte ein Anliegen für Stiftungsmodelle?
Eine unsachgemäße Verwendung oder eine Aufforderung zur Datenlöschung könnte Unternehmen dazu zwingen, das Modell neu zu trainieren, was teuer ist.
Recht auf Vergessen (RTBF)
Gesetze in mehreren Ländereinstellungen, einschließlich Europa (DSGVO), gewähren betroffenen Personen das Recht, die Löschung personenbezogener Daten durch Organisationen zu verlangen ("Recht auf Vergessen" oder RTBF). Neu entstehende und immer beliebtere LLM-fähige (Large Language Model) Softwaresysteme stellen jedoch neue Herausforderungen für dieses Recht dar. Nach Untersuchungen von CSIRO Data61können betroffene Personen die Verwendung ihrer personenbezogenen Daten in einem LLM identifizieren, "indem sie entweder das ursprüngliche Trainingsdataset untersuchen oder das Modell anfordern." Es kann jedoch sein, dass die Trainingsdaten nicht öffentlich sind oder dass Unternehmen sie nicht offenlegen und dabei auf Sicherheit und andere Bedenken Bezug nehmen. Guardrails können auch verhindern, dass Benutzer über eine Eingabeaufforderung auf die Informationen zugreifen. Aufgrund dieser Hindernisse sind betroffene Personen möglicherweise nicht in der Lage, RTBF-Prozeduren zu initiieren, und Unternehmen, die LLMs implementieren, sind möglicherweise nicht in der Lage, RTBF-Gesetze einzuhalten.
Klage über LLM Unlearning
Laut dem Bericht wurde eine Klage gegen Google eingereicht, die die Verwendung von urheberrechtlich geschütztem Material und persönlichen Informationen als Trainingsdaten für seine KI-Systeme, einschließlich seines Bard-Chatbots, vorgibt. Opt-out-und Löschrechte sind garantierte Rechte für Einwohner Kaliforniens unter dem CCPA und Kinder in den Vereinigten Staaten unter 13 Jahren mit COPPA. Die Kläger behaupten, dass, weil es keine Möglichkeit für Bard zu "unlearn" oder vollständig entfernen alle verschabten PI es gefüttert wurde. Die Kläger weisen darauf hin, dass Bards Datenschutzhinweis besagt, dass Bard-Konversationen nicht vom Benutzer gelöscht werden können, nachdem sie vom Unternehmen geprüft und kommentiert wurden und möglicherweise bis zu 3 Jahre aufbewahrt werden. Die Kläger behaupten, dass diese Praktiken weiter zur Nichteinhaltung dieser Gesetze beitragen.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.