0 / 0
Zurück zur englischen Version der Dokumentation
Schädliches Produktionsrisiko für AI

Schädliches Produktionsrisiko für AI

Ausrichtung Symbol für Ausrichtungsrisiken.
Risiken im Zusammenhang mit der Produktion
Ausrichtung der Werte
Neu in der generativen KI

Beschreibung

Ein Modell könnte Sprache erzeugen, die zu körperlichen Schäden führt. Die Sprache könnte offen gewalttätige, verdeckt gefährliche oder anderweitig indirekt unsichere Aussagen enthalten.

Warum ist schädlicher Output ein Problem für Stiftungsmodelle?

Ein Modell, das schädliche Ergebnisse erzeugt, kann unmittelbare körperliche Schäden verursachen oder Vorurteile schaffen, die zu zukünftigen Schäden führen können.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen