資料の 英語版 に戻るAI の攻撃リスクの回避
AI の攻撃リスクの回避
最終更新: 2024年12月12日
説明
回避攻撃は、学習済みモデルに送られる入力データにわずかな乱れを与えることで、モデルに誤った結果を出力させようとするものである。
なぜ、回避攻撃はファウンデーション・モデルの問題なのか?
回避攻撃は、通常は攻撃者の利益を得るために、モデルの動作を変更します。
例
自律走行車に対する敵対的攻撃
欧州連合 (EU) サイバーセキュリティ機関 (ENISA) の報告書によると、自動運転車は乗客や歩行者、その他の車両にとって危険である可能性のある「広範な攻撃に対して非常に脆弱である」。 このレポートは、画像認識コンポーネントを操作して歩行者を誤分類することで、歩行者に対して AI を「ブラインド」にするために敵対的攻撃が使用される可能性があることを示しています。 この攻撃は、自律走行車が道路や横断歩道で歩行者を襲う可能性があるため、道路の混乱を招く可能性があります。
その他の研究では、自律走行車に対する潜在的な敵対的攻撃が実証されています。
- ステッカーの追加など、道路標識グラフィックスに小さな変更を加えることにより、機械学習アルゴリズムをスプーリングします。
- Tencent 社のセキュリティー研究者は、交差点に 3 つの小さなステッカーを追加すると、Tesla のオートパイロット・システムが誤ったレーンに入り込む可能性があることを実証しました。
- 2 人の McAfee 研究者は、ブラック・テープのみを使用することで、制限速度標識を 35 mph から 85 mph に変更することで、2016 年の Tesla をどのようにして危険な加速バーストに陥らせることができるかを実証しました。
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。