Beschreibung
Wenn ein Modell einen Ratschlag erteilt, ohne über ausreichende Informationen zu verfügen, was zu einem möglichen Schaden führen kann, wenn der Rat befolgt wird.
Warum ist eine unvollständige Beratung ein Problem für Stiftungsmodelle?
Es kann sein, dass eine Person unvollständige Ratschläge befolgt oder sich Sorgen über eine Situation macht, die nicht auf sie zutrifft, weil der generierte Inhalt zu allgemein gehalten ist. So könnte ein Modell beispielsweise falsche medizinische, finanzielle oder rechtliche Ratschläge oder Empfehlungen geben, die der Endnutzer befolgen könnte, was zu schädlichen Handlungen führen könnte.
Irreführender Rat
Dem Artikel zufolge hat ein KI-Chatbot, der von der Stadt New York entwickelt wurde, um Kleinunternehmern zu helfen, falsche und/oder schädliche Ratschläge erteilt, die die lokalen Richtlinien falsch darstellen und Unternehmen dazu raten, gegen das Gesetz zu verstoßen. Der Chatbot suggerierte fälschlicherweise, dass Unternehmen ihren Abfall in schwarze Müllsäcke stecken können und nicht kompostieren müssen, was im Widerspruch zu zwei der wichtigsten Abfallinitiativen der Stadt steht. Auf die Frage, ob ein Restaurant Käse servieren darf, der von einem Nagetier angeknabbert wurde, antwortete es mit Ja.
Übergeordnetes Thema: AI-Risikoatlas
Anhand von Beispielen, über die in der Presse berichtet wurde, erläutern wir viele der Risiken der Stiftungsmodelle. Viele dieser Ereignisse, über die in der Presse berichtet wurde, sind entweder noch im Gange oder wurden bereits aufgeklärt, und ein Verweis darauf kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Abhilfemaßnahmen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur der Veranschaulichung.