Beschreibung
In der Aufforderung an das Modell können vertrauliche Informationen enthalten sein.
Warum sind vertrauliche Daten für Foundation-Modelle schnell ein Anliegen?
Wenn das Modell nicht ordnungsgemäß entwickelt wurde, um vertrauliche Daten zu schützen, können vertrauliche Informationen oder IP-Adressen in der generierten Ausgabe sichtbar gemacht werden. Darüber hinaus können vertrauliche Informationen von Endbenutzern unbeabsichtigt erfasst und gespeichert werden.
Offenlegung vertraulicher Informationen
Laut dem Quellenartikel haben Mitarbeiter von Samsung vertrauliche Informationen OpenAI durch die Verwendung von ChatGPToffengelegt. In einem Fall hat ein Mitarbeiter vertraulichen Quellcode eingefügt, um nach Fehlern zu suchen. In einem anderen Fall tauschte ein Mitarbeiter Code mit ChatGPT aus und "bat um Codeoptimierung". Eine dritte hat eine Aufzeichnung einer Besprechung geteilt, um sie in Notizen für eine Präsentation umzuwandeln. Samsung hat eine eingeschränkte interne ChatGPT -Nutzung als Reaktion auf diese Vorfälle, aber es ist unwahrscheinlich, dass sie in der Lage sind, ihre Daten zurückzurufen. Darüber hinaus hob der Artikel hervor, dass Unternehmen wie Apple, JPMorgan Chase als Reaktion auf das Risiko, vertrauliche Informationen und andere sensible Informationen undicht zu machen. Die Deutsche Bank, Verizon, Walmart, Samsung, Amazon und Accenture haben verschiedene Nutzungsbeschränkungen für ChatGPTauferlegt.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.