Beschreibung
Die Aufnahme oder das Vorhandensein personenbezogener Daten (PII) und sensibler personenbezogener Daten (SPI) in die Daten, die für das Training oder die Optimierung des Modells verwendet werden, kann zu einer unerwünschten Offenlegung dieser Informationen führen.
Warum sind personenbezogene Daten in Foundation-Modellen ein Anliegen?
Wenn das Modell nicht ordnungsgemäß zum Schutz sensibler Daten entwickelt wurde, können in der erzeugten Ausgabe personenbezogene Informationen enthalten sein Darüber hinaus müssen personenbezogene oder sensible Daten geprüft und gemäß den Datenschutzgesetzen und -vorschriften behandelt werden.
Schulung zu privaten Informationen
Laut dem Artikel wurden Google und seine Muttergesellschaft Alphabet in einem Klageverfahren beschuldigt, ungeheure Menge an persönlichen Informationen und urheberrechtlich geschütztem Material missbraucht zu haben. Die Informationen wurden von Hunderten von Millionen von Internetnutzern genommen, um ihre kommerziellen KI-Produkte zu trainieren, darunter Bard, sein dialogorientierter Chatbot für künstliche Intelligenz. Dieser Fall folgt ähnlichen Gerichtsverfahren, die gegen Meta-Plattformen, Microsoft und OpenAI wegen ihres angeblichen Missbrauchs personenbezogener Daten eingereicht werden.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.