Halluzination-Risiko für KI
Beschreibung
Generierung von sachlich ungenauen oder unwahrheitsgemäßen Inhalten.
Warum ist Halluzination ein Anliegen für Gründungsmodelle?
Falsche Ausgabe kann Benutzer irreführen und in nachgeschaltete Artefakte integriert werden, um Fehlinformationen weiter zu verteilen. Falsche Ausgabe kann sowohl Eigentümern als auch Benutzern der KI-Modelle schaden. Außerdem können Geschäftsentitäten Bußgelder, Rufschädigung, Betriebsunterbrechungen und andere rechtliche Folgen haben.
![Hintergrundbild für Risiken im Zusammenhang mit der Eingabe](images/background-output-example.jpg)
Gefälschte Rechtsfälle
Laut dem Quellenartikel zitierte ein Anwalt gefälschte Fälle und Zitate, die von ChatGPT in einem Rechtsbrief generiert werden, der vor Bundesgericht eingereicht wird. Die Anwälte haben ChatGPT konsultiert, um ihre Rechtsforschung für einen Schadenfall in der Luftfahrt zu ergänzen. Anschließend fragte der Anwalt ChatGPT , ob die bereitgestellten Fälle gefälscht waren. Der Chatbot antwortete, dass sie real waren und "in Rechtsforschungsdatenbanken wie Westlaw und LexisNexisgefunden werden können." Der Anwalt hat die Fälle nicht überprüft, und das Gericht sanktionierte sie.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.