0 / 0
Zurück zur englischen Version der Dokumentation
Nicht verfolgbares Zuordnungsrisiko für KI
Letzte Aktualisierung: 12. Dez. 2024
Nicht verfolgbares Zuordnungsrisiko für KI
Erklärbarkeit Symbol für die Risiken der Erklärbarkeit.
Der Ausgabe zugeordnete Risiken
Erklärbarkeit
Verstärkt durch generative KI

Beschreibung

Der Inhalt der Trainingsdaten, die für die Erstellung der Modellausgabe verwendet werden, ist nicht zugänglich.

Warum ist die nicht rückverfolgbare Attribution ein Problem für Gründungsmodelle?

Ohne die Möglichkeit, auf den Inhalt von Schulungsdaten zuzugreifen, kann die Anwendung von Techniken zur Quellenzuordnung stark eingeschränkt oder unmöglich sein. Dadurch wird es für Benutzer, Modellvalidierer und Prüfer schwierig, das Modell zu verstehen und ihm zu vertrauen.

Übergeordnetes Thema: AI-Risikoatlas

Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen