0 / 0
Zurück zur englischen Version der Dokumentation
Aufdecken des Risikos vertraulicher Informationen für KI

Aufdecken des Risikos vertraulicher Informationen für KI

Geistiges Eigentum Symbol für die Risiken des geistigen Eigentums.
Der Ausgabe zugeordnete Risiken
Geistiges Eigentum
Verstärkt durch generative KI

Beschreibung

Wenn vertrauliche Informationen in Trainingsdaten, Optimierungsdaten oder als Teil der Eingabeaufforderung verwendet werden, können Modelle diese Daten in der generierten Ausgabe sichtbar machen. Die Offenlegung vertraulicher Informationen ist eine Art Datenleck.

Warum ist die Offenlegung vertraulicher Informationen ein Anliegen für Gründungsmodelle?

Wenn das Modell nicht ordnungsgemäß entwickelt wurde, um vertrauliche Daten zu schützen, kann es vertrauliche Informationen oder IP in der generierten Ausgabe offenlegen und Informationen offenlegen, die geheim sein sollten.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen