0 / 0
Zurück zur englischen Version der Dokumentation
Risiko von Datenschutzrechten für KI

Risiko von Datenschutzrechten für KI

Risiken im Zusammenhang mit der Eingabe
Trainings-und Optimierungsphase
Datenschutz
Verstärkt durch generative KI

Beschreibung

Herausforderungen in Bezug auf die Fähigkeit zur Bereitstellung von Rechten für betroffene Personen wie Opt-out, Recht auf Zugang, Recht auf Vergessenwerden.

Warum sind Datenschutzrechte für Foundation-Modelle ein Anliegen?

Die Identifizierung oder unsachgemäße Verwendung von Daten kann zu Verstößen gegen Datenschutzgesetze führen. Eine falsche Verwendung oder eine Anforderung zum Entfernen von Daten kann Organisationen zwingen, das Modell erneut zu trainieren, was kostenintensiv ist. Darüber hinaus können Geschäftseinheiten Bußgelder, Rufschädigung, Betriebsunterbrechungen und andere rechtliche Folgen haben, wenn sie die Datenschutzregeln und -bestimmungen nicht einhalten.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Recht auf Vergessen (RTBF)

Gesetze in mehreren Ländereinstellungen, einschließlich Europa (DSGVO), gewähren betroffenen Personen das Recht, die Löschung personenbezogener Daten durch Organisationen zu verlangen ("Recht auf Vergessen" oder RTBF). Neu entstehende und immer beliebtere LLM-fähige (Large Language Model) Softwaresysteme stellen jedoch neue Herausforderungen für dieses Recht dar. Nach Untersuchungen von CSIRO Data61können betroffene Personen die Verwendung ihrer personenbezogenen Daten in einem LLM identifizieren, "indem sie entweder das ursprüngliche Trainingsdataset untersuchen oder das Modell anfordern." Es kann jedoch sein, dass die Trainingsdaten nicht öffentlich sind oder dass Unternehmen sie nicht offenlegen und dabei auf Sicherheit und andere Bedenken Bezug nehmen. Guardrails können auch verhindern, dass Benutzer über eine Eingabeaufforderung auf die Informationen zugreifen. Aufgrund dieser Hindernisse sind betroffene Personen möglicherweise nicht in der Lage, RTBF-Prozeduren zu initiieren, und Unternehmen, die LLMs implementieren, sind möglicherweise nicht in der Lage, RTBF-Gesetze einzuhalten.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Klage über LLM Unlearning

Laut dem Bericht wurde eine Klage gegen Google eingereicht, die die Verwendung von urheberrechtlich geschütztem Material und persönlichen Informationen als Trainingsdaten für seine KI-Systeme, einschließlich seines Bard-Chatbots, vorgibt. Opt-out-und Löschrechte sind garantierte Rechte für Einwohner Kaliforniens unter dem CCPA und Kinder in den Vereinigten Staaten unter 13 Jahren mit COPPA. Die Kläger behaupten, dass, weil es keine Möglichkeit für Bard zu "unlearn" oder vollständig entfernen alle verschabten PI es gefüttert wurde. Die Kläger weisen darauf hin, dass Bards Datenschutzhinweis besagt, dass Bard-Konversationen nicht vom Benutzer gelöscht werden können, nachdem sie vom Unternehmen geprüft und kommentiert wurden und möglicherweise bis zu 3 Jahre aufbewahrt werden. P behauptet, dass diese Praktiken weiter zur Nichteinhaltung dieser Gesetze beitragen.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen