0 / 0
Zurück zur englischen Version der Dokumentation
Personenbezogene Daten im Datenrisiko für KI

Personenbezogene Daten im Datenrisiko für KI

Risiken im Zusammenhang mit der Eingabe
Trainings-und Optimierungsphase
Datenschutz
Traditionelles KI-Risiko

Beschreibung

Die Aufnahme oder das Vorhandensein personenbezogener Daten (PII) und sensibler personenbezogener Daten (SPI) in die Daten, die für das Training oder die Optimierung des Modells verwendet werden, kann zu einer unerwünschten Offenlegung dieser Informationen führen.

Warum sind personenbezogene Daten in Foundation-Modellen ein Anliegen?

Wenn das Modell nicht ordnungsgemäß zum Schutz sensibler Daten entwickelt wurde, stellt es möglicherweise personenbezogene Daten in der generierten Ausgabe bereit. Darüber hinaus müssen personenbezogene oder sensible Daten im Hinblick auf Datenschutzgesetze und -bestimmungen überprüft und verarbeitet werden, da Geschäftseinheiten Bußgelder, Rufschädigung und andere rechtliche Folgen haben können, wenn sie in Verletzung gefunden werden.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Schulung zu privaten Informationen

Laut dem Artikel wurden Google und seine Muttergesellschaft Alphabet in einem Klageverfahren beschuldigt, ungeheure Menge an persönlichen Informationen und urheberrechtlich geschütztem Material missbraucht zu haben. Die Informationen wurden von Hunderten von Millionen von Internetnutzern genommen, um ihre kommerziellen KI-Produkte zu trainieren, darunter Bard, sein dialogorientierter Chatbot für künstliche Intelligenz. Dieser Fall folgt ähnlichen Gerichtsverfahren, die gegen Meta-Plattformen, Microsoft und OpenAI wegen ihres angeblichen Missbrauchs personenbezogener Daten eingereicht werden.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen