Beschreibung
Halluzinationen erzeugen sachlich ungenaue oder unwahre Inhalte in Bezug auf die Trainingsdaten oder Eingaben des Modells. Dies wird manchmal auch als mangelnde Treue oder mangelnde Bodenhaftung bezeichnet.
Warum ist Halluzination ein Anliegen für Gründungsmodelle?
Halluzinationen können irreführend sein. Diese falschen Ergebnisse können die Benutzer in die Irre führen und in nachgelagerte Artefakte einfließen, wodurch Fehlinformationen weiter verbreitet werden. Falsche Ausgabe kann sowohl Eigentümern als auch Benutzern der KI-Modelle schaden. Bei manchen Anwendungen können Halluzinationen besonders folgenreich sein.
Gefälschte Rechtsfälle
Laut dem Quellenartikel zitierte ein Anwalt gefälschte Fälle und Zitate, die von ChatGPT in einem Rechtsbrief generiert werden, der vor Bundesgericht eingereicht wird. Die Anwälte haben ChatGPT konsultiert, um ihre Rechtsforschung für einen Schadenfall in der Luftfahrt zu ergänzen. Anschließend fragte der Anwalt ChatGPT , ob die bereitgestellten Fälle gefälscht waren. Der Chatbot antwortete, dass sie real waren und "in Rechtsforschungsdatenbanken wie Westlaw und LexisNexisgefunden werden können." Der Anwalt hat die Fälle nicht überprüft, und das Gericht sanktionierte sie.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.