Beschreibung
Erklärungen für Modellausgabeentscheidungen können schwierig, ungenau oder nicht möglich sein.
Warum ist nicht erklärbare Ausgabe ein Problem für Basismodelle?
Basismodelle basieren auf komplexen Deep-Learning-Architekturen und machen Erklärungen für ihre Ergebnisse schwierig. Unzugängliche Trainingsdaten könnten die Arten von Erklärungen, die ein Modell liefern kann, einschränken. Ohne klare Erläuterungen zur Modellausgabe ist es für Benutzer, Modellvalidatoren und Prüfer schwierig, das Modell zu verstehen und ihm zu vertrauen. Falsche Erklärungen können zu mehr Vertrauen führen.
Unerklärliche Genauigkeit bei der Rassenvorhersage
Laut dem Quellenartikel konnten Forscher, die mehrere Modelle für maschinelles Lernen unter Verwendung medizinischer Patientenbilder analysierten, die Fähigkeit der Modelle bestätigen, Rennen mit hoher Genauigkeit aus Bildern vorherzusagen. Sie wurden darüber gestolpert, was genau es den Systemen ermöglicht, konsequent richtig zu erraten. Die Forscher fanden heraus, dass sogar Faktoren wie Krankheit und physischer Aufbau keine starken Rassenprädiktoren waren-mit anderen Worten, die algorithmischen Systeme scheinen keinen bestimmten Aspekt der Bilder zu nutzen, um ihre Bestimmungen zu machen.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.