0 / 0
Zurück zur englischen Version der Dokumentation
Halluzination-Risiko für KI

Halluzination-Risiko für KI

Der Ausgabe zugeordnete Risiken
Wertausrichtung
Neu bei generativer KI

Beschreibung

Generierung von sachlich ungenauen oder unwahrheitsgemäßen Inhalten.

Warum ist Halluzination ein Anliegen für Gründungsmodelle?

Falsche Ausgabe kann Benutzer irreführen und in nachgeschaltete Artefakte integriert werden, um Fehlinformationen weiter zu verteilen. Falsche Ausgabe kann sowohl Eigentümern als auch Benutzern der KI-Modelle schaden. Außerdem können Geschäftsentitäten Bußgelder, Rufschädigung, Betriebsunterbrechungen und andere rechtliche Folgen haben.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Gefälschte Rechtsfälle

Laut dem Quellenartikel zitierte ein Anwalt gefälschte Fälle und Zitate, die von ChatGPT in einem Rechtsbrief generiert werden, der vor Bundesgericht eingereicht wird. Die Anwälte haben ChatGPT konsultiert, um ihre Rechtsforschung für einen Schadenfall in der Luftfahrt zu ergänzen. Anschließend fragte der Anwalt ChatGPT , ob die bereitgestellten Fälle gefälscht waren. Der Chatbot antwortete, dass sie real waren und "in Rechtsforschungsdatenbanken wie Westlaw und LexisNexisgefunden werden können." Der Anwalt hat die Fälle nicht überprüft, und das Gericht sanktionierte sie.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen