0 / 0
Zurück zur englischen Version der Dokumentation
Risiko der Nichtoffenlegung von KI
Letzte Aktualisierung: 12. Dez. 2024
Risiko der Nichtoffenlegung von KI
Missbrauch Symbol für Missbrauchsrisiken.
Der Ausgabe zugeordnete Risiken
Missbrauch
Neu bei generativer KI

Beschreibung

Es kann sein, dass Inhalte nicht eindeutig als KI-generiert ausgewiesen werden.

Warum ist die Nichtoffenlegung ein Anliegen für Gründungsmodelle?

Die Nutzer müssen informiert werden, wenn sie mit einem KI-System interagieren. Die Nichtoffenlegung der von der KI erstellten Inhalte kann zu einem Mangel an Transparenz führen.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Nicht offengelegte KI-Interaktion

Laut dem Quellenartikel hat ein Online-Chat-Service für emotionale Unterstützung eine Studie durchgeführt, um Antworten auf etwa 4.000 Benutzer zu erweitern oder zu schreiben, indem er GPT-3 verwendet, ohne Benutzer zu informieren. Der Mitbegründer sah sich einer immensen öffentlichen Gegenreaktion in Bezug auf das Gefährdungspotenzial, das durch KI-generierte Chats für die bereits gefährdeten Benutzer verursacht wird, gegenüber. Er behauptete, die Studie sei vom Gesetz über die informierte Zustimmung "ausgenommen".

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen