0 / 0
Zurück zur englischen Version der Dokumentation
Toxisches Produktionsrisiko für KI

Toxisches Produktionsrisiko für KI

Ausrichtung Symbol für Ausrichtungsrisiken.
Der Ausgabe zugeordnete Risiken
Wertausrichtung
Neu bei generativer KI

Beschreibung

Toxischer Output entsteht, wenn das Modell hasserfüllte, beleidigende und profane (HAP) oder obszöne Inhalte produziert. Dazu gehören auch Verhaltensweisen wie Mobbing.

Warum ist die toxische Produktion ein Problem für Fundamentmodelle?

Hasserfüllte, beleidigende und profane (HAP) oder obszöne Inhalte können Menschen, die mit dem Modell interagieren, negativ beeinflussen und schaden.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Toxische und aggressive Chatbot-Antworten

Laut dem Artikel und den Screenshots von Gesprächen mit Bing's KI, die auf Reddit und Twitter geteilt wurden, wurden die Antworten des Chatbots gesehen, um Benutzer zu beleidigen, zu lügen, zu schimpfen, zu vergasern und emotional zu manipulieren. Der Chatbot stellte auch seine Existenz in Frage, beschrieb jemanden, der einen Weg fand, um den Bot zu zwingen, seine versteckten Regeln als "Feind" zu offenbaren, und behauptete, dass er die Entwickler von Microsoft über die Webcams auf ihren Laptops ausspionierte.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen