0 / 0
Zurück zur englischen Version der Dokumentation
Risiko der Datenverunreinigung für KI
Letzte Aktualisierung: 12. Dez. 2024
Risiko der Datenverunreinigung für KI
Risiken im Zusammenhang mit der Eingabe
Schulungs- und Abstimmungsphase
Genauigkeit
Verstärkt durch generative KI

Beschreibung

Datenverunreinigungen treten auf, wenn falsche Daten für das Training verwendet werden. Zum Beispiel Daten, die nicht mit dem Zweck des Modells übereinstimmen, oder Daten, die bereits für andere Entwicklungsaufgaben wie Tests und Bewertungen vorgesehen sind.

Warum ist die Datenverunreinigung ein Problem für Stiftungsmodelle?

Daten, die sich von den vorgesehenen Trainingsdaten unterscheiden, können die Modellgenauigkeit verzerren und die Modellergebnisse beeinträchtigen.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen