0 / 0
Zurück zur englischen Version der Dokumentation
Risiko der Über- oder Unterversorgung mit KI
Letzte Aktualisierung: 12. Dez. 2024
Risiko der Über- oder Unterversorgung mit KI
Ausrichtung Symbol für Ausrichtungsrisiken.
Der Ausgabe zugeordnete Risiken
Wertausrichtung
Verstärkt durch generative KI

Beschreibung

Bei KI-gestützten Entscheidungsfindungsaufgaben misst das Vertrauen, wie sehr eine Person den Ergebnissen eines Modells vertraut (und möglicherweise danach handelt). Übermäßiges Vertrauen entsteht, wenn eine Person einem Modell zu sehr vertraut und die Ergebnisse eines Modells akzeptiert, obwohl diese wahrscheinlich falsch sind. Ein zu geringes Vertrauen ist das Gegenteil, d. h. die Person vertraut dem Modell nicht, obwohl sie es sollte.

Warum ist ein übermäßiger oder unzureichender Rückgriff auf Stiftungsmodelle ein Problem?

Bei Aufgaben, bei denen Menschen Entscheidungen auf der Grundlage von KI-gestützten Vorschlägen treffen, kann ein zu großes oder zu geringes Vertrauen in das KI-System zu einer schlechten Entscheidungsfindung führen, mit negativen Folgen, die mit der Bedeutung der Entscheidung zunehmen.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen