Personenbezogene Daten mit soforlichem Risiko für KI
Beschreibung
Offenlegung personenbezogener Daten oder sensibler personenbezogener Daten als Teil einer Eingabeaufforderung, die an das Modell gesendet wird
Warum sind personenbezogene Daten für Basismodelle schnell ein Anliegen?
Eingabeaufforderungsdaten können gespeichert oder später für andere Zwecke wie Modellevaluierung und erneutes Training verwendet werden. Solche Daten müssen mit Datenschutzgesetzen und -bestimmungen überprüft werden. Ohne ordnungsgemäße Datenspeicherung und -nutzung können Geschäftsentitäten Geldstrafen, Rufschädigung, Betriebsunterbrechungen und andere rechtliche Folgen haben.
![Hintergrundbild für Risiken im Zusammenhang mit der Eingabe](images/background-input-example.jpg)
Persönliche Gesundheitsdaten in ChatGPT -Eingabeaufforderungen offenlegen
Laut dem Quellenartikel haben einige Menschen in sozialen Medien über die Verwendung von ChatGPT als Behelfstherapeuten berichtet. Artikel behaupten, dass Benutzer persönliche Gesundheitsdaten in ihren Eingabeaufforderungen während der Interaktion einschließen könnten, was zu Datenschutzbedenken führen könnte. Die Informationen können mit dem Unternehmen, das Eigner der Technologie ist, geteilt werden und für Schulungen oder zur Optimierung verwendet werden oder sogar mit nicht spezifizierten Dritten geteilt werden.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.