0 / 0
Zurück zur englischen Version der Dokumentation
Gefährliches Nutzungsrisiko für KI
Letzte Aktualisierung: 12. Dez. 2024
Gefährliches Nutzungsrisiko für KI
Missbrauch Symbol für Missbrauchsrisiken.
Der Ausgabe zugeordnete Risiken
Missbrauch
Neu bei generativer KI

Beschreibung

Generative KI-Modelle könnten mit der alleinigen Absicht eingesetzt werden, Menschen zu schaden.

Warum ist gefährliche Nutzung ein Problem für Foundation-Modelle?

Große Sprachmodelle werden oft anhand großer Mengen öffentlich zugänglicher Informationen trainiert, die auch Informationen über die Schädigung anderer enthalten können. Ein Modell, das über dieses Potenzial verfügt, muss sorgfältig auf solche Inhalte geprüft und angemessen geregelt werden.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

KI-basierte Cyberangriffe

Laut dem Quellenartikel experimentieren Hacker zunehmend mit ChatGPT und anderen KI-Tools, die es einer größeren Zahl von Akteuren ermöglichen, Cyberangriffe und Betrügereien durchzuführen. Microsoft hat davor gewarnt, dass staatlich unterstützte Hacker OpenAI’s LLMs nutzen, um ihre Cyberangriffe zu verbessern, Skripte zu verfeinern und ihre gezielten Techniken zu verbessern. In dem Artikel wird auch von einem Fall berichtet, in dem Microsoft und OpenAI nach eigenen Angaben Versuche von Angreifern und einen starken Anstieg von Cyberangriffen auf Regierungsstellen festgestellt haben.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

AI-basierte biologische Angriffe

Wie in der Quelle zu lesen ist, könnten große Sprachmodelle bei der Planung und Durchführung eines biologischen Angriffs helfen. Es werden mehrere Testszenarien erwähnt, wie z. B. die Verwendung von LLMs zur Identifizierung biologischer Agenzien und ihrer relativen Wahrscheinlichkeit, dem menschlichen Leben zu schaden. In dem Artikel wurde auch die offene Frage hervorgehoben, inwieweit LLMs eine Bedrohung darstellen, die über die schädlichen Informationen hinausgeht, die online leicht zugänglich sind.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen