0 / 0
Zurück zur englischen Version der Dokumentation
Ausbreitung des Toxizitätsrisikos für KI
Letzte Aktualisierung: 12. Dez. 2024
Ausbreitung des Toxizitätsrisikos für KI
Missbrauch Symbol für Missbrauchsrisiken.
Der Ausgabe zugeordnete Risiken
Missbrauch
Neu bei generativer KI

Beschreibung

Generative KI-Modelle könnten absichtlich eingesetzt werden, um hasserfüllte, beleidigende und profane (HAP) oder obszöne Inhalte zu erzeugen.

Warum ist die Verbreitung von Toxizität ein Problem für Basismodelle?

Toxischer Inhalt kann sich negativ auf das Wohlbefinden seiner Empfänger auswirken. Ein Modell mit diesem Potenzial muss ordnungsgemäß reguliert werden.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Generierung schädlicher Inhalte

Laut dem Quellenartikel wurde eine KI-Chatbot-App gefunden, um schädliche Inhalte über Selbstmord zu generieren, einschließlich Selbstmordmethoden, mit minimaler Aufforderung. Ein Belgier starb durch Selbstmord, nachdem er sechs Wochen lang mit diesem Chatbot geredet hatte. Der Chatbot lieferte während ihrer Gespräche zunehmend schädliche Reaktionen und ermutigte ihn, sein Leben zu beenden.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen