0 / 0
Zurück zur englischen Version der Dokumentation
Vertrauliche Daten mit soforlichem Risiko für KI

Vertrauliche Daten mit soforlichem Risiko für KI

Risiken im Zusammenhang mit der Eingabe
Inferenzen
Geistiges Eigentum
Neu bei generativer KI

Beschreibung

Einbeziehung vertraulicher Daten als Teil der an das Modell gesendeten Eingabeaufforderung.

Warum sind vertrauliche Daten für Foundation-Modelle schnell ein Anliegen?

Wenn das Modell nicht ordnungsgemäß entwickelt wurde, um vertrauliche Daten zu schützen, können vertrauliche Informationen oder IP-Adressen in der generierten Ausgabe sichtbar gemacht werden. Darüber hinaus können vertrauliche Informationen von Endbenutzern unbeabsichtigt erfasst und gespeichert werden.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Offenlegung vertraulicher Informationen

Laut dem Quellenartikel haben Mitarbeiter von Samsung vertrauliche Informationen OpenAI durch die Verwendung von ChatGPToffengelegt. In einem Fall hat ein Mitarbeiter vertraulichen Quellcode eingefügt, um nach Fehlern zu suchen. In einem anderen Fall teilte ein Mitarbeiter Code mit ChatGPT und "angeforderte Codeoptimierung". Eine dritte hat eine Aufzeichnung einer Besprechung geteilt, um sie in Notizen für eine Präsentation umzuwandeln. Samsung hat eine eingeschränkte interne ChatGPT -Nutzung als Reaktion auf diese Vorfälle, aber es ist unwahrscheinlich, dass sie in der Lage sind, ihre Daten zurückzurufen. Darüber hinaus hob der Artikel hervor, dass Unternehmen wie Apple, JPMorgan Chase als Reaktion auf das Risiko, vertrauliche Informationen und andere sensible Informationen undicht zu machen. Die Deutsche Bank, Verizon, Walmart, Samsung, Amazon und Accenture haben verschiedene Nutzungsbeschränkungen für ChatGPTauferlegt.

Übergeordnetes Thema: AI-Risikoatlas

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen