0 / 0
資料の 英語版 に戻る
AI の攻撃リスクの回避

AI の攻撃リスクの回避

入力に関連するリスク
推論
堅牢性
生成 AI による増幅

説明

トレーニングされたモデルに送信されたデータを摂動することによって、モデル出力を誤った結果にしようとします。

なぜ、回避攻撃はファウンデーション・モデルの問題なのか?

回避攻撃は、通常は攻撃者の利益を得るために、モデルの動作を変更します。 適切に説明されないと、ビジネス・エンティティーは罰金、評判の悪さ、およびその他の法的結果に直面する可能性があります。

入力に関連付けられたリスクの背景イメージ

自動運転車の AI コンポーネントに対する敵対的攻撃

欧州連合 (EU) サイバーセキュリティ機関 (ENISA) の報告書によると、自動運転車は乗客や歩行者、その他の車両にとって危険である可能性のある「広範な攻撃に対して非常に脆弱である」。 このレポートは、画像認識コンポーネントを操作して歩行者を誤分類することで、歩行者に対して AI を「ブラインド」にするために敵対的攻撃が使用される可能性があることを示しています。 この攻撃は、自律走行車が道路や横断歩道で歩行者を襲う可能性があるため、道路の混乱を招く可能性があります。

その他の研究では、自律走行車に対する潜在的な敵対的攻撃が実証されています。

  • ステッカーの追加など、道路標識グラフィックスに小さな変更を加えることにより、機械学習アルゴリズムをスプーリングします。
  • Tencent 社のセキュリティー研究者は、交差点に 3 つの小さなステッカーを追加すると、Tesla のオートパイロット・システムが誤ったレーンに入り込む可能性があることを実証しました。
  • 2 人の McAfee 研究者は、ブラック・テープのみを使用することで、制限速度標識を 35 mph から 85 mph に変更することで、2016 年の Tesla をどのようにして危険な加速バーストに陥らせることができるかを実証しました。

    親トピック: AI リスク・アトラス

    生成 AI の検索と回答
    これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細