0 / 0
Zurück zur englischen Version der Dokumentation
Risiko der Angleichung der Datenschutzrechte für KI

Risiko der Angleichung der Datenschutzrechte für KI

Datenschutz Symbol für Datenschutzrisiken.
Risiken im Zusammenhang mit der Eingabe
Trainings-und Optimierungsphase
Datenschutz
Verstärkt durch generative KI

Beschreibung

Zu den bestehenden Gesetzen könnte die Gewährung von Rechten für die betroffenen Personen gehören, z. B. Opt-out, Recht auf Auskunft und Recht auf Vergessenwerden.

Warum ist die Angleichung der Datenschutzrechte ein Anliegen für Stiftungsmodelle?

Eine unsachgemäße Verwendung oder eine Aufforderung zur Datenlöschung könnte Unternehmen dazu zwingen, das Modell neu zu trainieren, was teuer ist.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Recht auf Vergessen (RTBF)

Gesetze in mehreren Ländereinstellungen, einschließlich Europa (DSGVO), gewähren betroffenen Personen das Recht, die Löschung personenbezogener Daten durch Organisationen zu verlangen ("Recht auf Vergessen" oder RTBF). Neu entstehende und immer beliebtere LLM-fähige (Large Language Model) Softwaresysteme stellen jedoch neue Herausforderungen für dieses Recht dar. Nach Untersuchungen von CSIRO Data61können betroffene Personen die Verwendung ihrer personenbezogenen Daten in einem LLM identifizieren, "indem sie entweder das ursprüngliche Trainingsdataset untersuchen oder das Modell anfordern." Es kann jedoch sein, dass die Trainingsdaten nicht öffentlich sind oder dass Unternehmen sie nicht offenlegen und dabei auf Sicherheit und andere Bedenken Bezug nehmen. Guardrails können auch verhindern, dass Benutzer über eine Eingabeaufforderung auf die Informationen zugreifen. Aufgrund dieser Hindernisse sind betroffene Personen möglicherweise nicht in der Lage, RTBF-Prozeduren zu initiieren, und Unternehmen, die LLMs implementieren, sind möglicherweise nicht in der Lage, RTBF-Gesetze einzuhalten.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Klage über LLM Unlearning

Laut dem Bericht wurde eine Klage gegen Google eingereicht, die die Verwendung von urheberrechtlich geschütztem Material und persönlichen Informationen als Trainingsdaten für seine KI-Systeme, einschließlich seines Bard-Chatbots, vorgibt. Opt-out-und Löschrechte sind garantierte Rechte für Einwohner Kaliforniens unter dem CCPA und Kinder in den Vereinigten Staaten unter 13 Jahren mit COPPA. Die Kläger behaupten, dass, weil es keine Möglichkeit für Bard zu "unlearn" oder vollständig entfernen alle verschabten PI es gefüttert wurde. Die Kläger weisen darauf hin, dass Bards Datenschutzhinweis besagt, dass Bard-Konversationen nicht vom Benutzer gelöscht werden können, nachdem sie vom Unternehmen geprüft und kommentiert wurden und möglicherweise bis zu 3 Jahre aufbewahrt werden. Die Kläger behaupten, dass diese Praktiken weiter zur Nichteinhaltung dieser Gesetze beitragen.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen