0 / 0
Zurück zur englischen Version der Dokumentation
Ausweichangriffsrisiko für KI

Ausweichangriffsrisiko für KI

Risiken im Zusammenhang mit der Eingabe
Inferenz
Zuverlässigkeit
Verstärkt durch generative KI

Beschreibung

Versuchen Sie, falsche Ergebnisse für die Modellausgabe zu erzielen, indem Sie die Daten, die an das trainierte Modell gesendet wurden, durch Perturbation ändern.

Warum ist eine Umgehungsattacke ein Problem für Basismodelle?

Umgehungsattacken ändern das Verhalten des Modells, in der Regel zum Vorteil des Angreifers. Wenn sie nicht ordnungsgemäß erklärt werden, könnten Unternehmen Bußgelder, Rufschädigung und andere rechtliche Folgen haben.

Hintergrundbild für Risiken im Zusammenhang mit der Eingabe
Beispiel

Feindliche Angriffe auf die KI-Komponenten autonomer Fahrzeuge

In einem Bericht der Agentur der Europäischen Union für Cybersicherheit (ENISA) wurde festgestellt, dass autonome Fahrzeuge "sehr anfällig für eine Vielzahl von Angriffen" sind, die für Passagiere, Fußgänger und Personen in anderen Fahrzeugen gefährlich sein könnten. Der Bericht gibt an, dass ein Angriff auf die Gegner verwendet werden könnte, um die KI für Fußgänger "blind" zu machen, indem die Bilderkennungskomponente manipuliert wird, um Fußgänger falsch zu klassifizieren. Dieser Angriff könnte zu Chaos auf den Straßen führen, da autonome Autos Fußgänger auf den Straßen oder Kreuzwegen treffen könnten.

Weitere Studien zeigten mögliche Angriffe auf autonome Fahrzeuge:

  • Täuschen Sie Algorithmen für maschinelles Lernen, indem Sie geringfügige Änderungen an Straßenschildgrafiken vornehmen, wie z. B. das Hinzufügen von Aufklebern.
  • Sicherheitsforscher von Tencent zeigten, wie das Hinzufügen von drei kleinen Aufklebern in einer Kreuzung dazu führen könnte, dass Teslas Autopilot-System in die falsche Spur eintaucht.
  • Zwei McAfee -Forscher zeigten, wie die Verwendung von schwarzem Elektroband einen 2016 Tesla zu einem gefährlichen Ausbruch der Beschleunigung verleiten könnte, indem sie ein Geschwindigkeitsbegrenzungszeichen von 35 mph auf 85 mph änderten.

    Übergeordnetes Thema: AI-Risikoatlas

    Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.

    Generative KI-Suche und -Antwort
    Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen