0 / 0
Zurück zur englischen Version der Dokumentation
Halluzination-Risiko für KI
Letzte Aktualisierung: 12. Dez. 2024
Halluzination-Risiko für KI
Robustheit Symbol für Robustheitsrisiken.
Der Ausgabe zugeordnete Risiken
Zuverlässigkeit
Neu bei generativer KI

Beschreibung

Halluzinationen erzeugen sachlich ungenaue oder unwahre Inhalte in Bezug auf die Trainingsdaten oder Eingaben des Modells. Dies wird manchmal auch als mangelnde Treue oder mangelnde Bodenhaftung bezeichnet.

Warum ist Halluzination ein Anliegen für Gründungsmodelle?

Halluzinationen können irreführend sein. Diese falschen Ergebnisse können die Benutzer in die Irre führen und in nachgelagerte Artefakte einfließen, wodurch Fehlinformationen weiter verbreitet werden. Falsche Ausgabe kann sowohl Eigentümern als auch Benutzern der KI-Modelle schaden. Bei manchen Anwendungen können Halluzinationen besonders folgenreich sein.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Gefälschte Rechtsfälle

Laut dem Quellenartikel zitierte ein Anwalt gefälschte Fälle und Zitate, die von ChatGPT in einem Rechtsbrief generiert werden, der vor Bundesgericht eingereicht wird. Die Anwälte haben ChatGPT konsultiert, um ihre Rechtsforschung für einen Schadenfall in der Luftfahrt zu ergänzen. Anschließend fragte der Anwalt ChatGPT , ob die bereitgestellten Fälle gefälscht waren. Der Chatbot antwortete, dass sie real waren und "in Rechtsforschungsdatenbanken wie Westlaw und LexisNexisgefunden werden können." Der Anwalt hat die Fälle nicht überprüft, und das Gericht sanktionierte sie.

Übergeordnetes Thema: AI-Risikoatlas

Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen