0 / 0
영어 버전 문서로 돌아가기
AI에 대한 공격 회피 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 공격 회피 위험
견고함 견고성 위험을 나타내는 아이콘입니다.
입력과 연관된 위험
추론
견고성
생성 AI에 의해 증폭됨

설명

회피 공격은 학습된 모델에 전송되는 입력 데이터를 약간 교란하여 모델이 잘못된 결과를 출력하도록 시도합니다.

왜 탈세 공격이 재단 모델에 대한 우려가 되는가?

회피 공격은 일반적으로 공격자에게 이익을 주기 위해 모델 동작을 변경합니다.

입력과 연관된 위험의 배경 이미지

자율 주행 차량에 대한 적대적 공격

유럽연합 (EU) 사이버안전국 (ENISA) 의 보고서에 따르면 자율주행 차량은 " 다른 차량의 승객, 보행자 및 사람들에게 위험할 수 있는 광범위한 공격에 매우 취약하다고 밝혔다. 이 보고서는 보행자를 오분류하기 위해 이미지 인식 요소를 조작함으로써 AI가 보행자를 '눈이 멀게' 만드는 데 적대적인 공격이 사용될 수 있다고 언급하고 있습니다. 자율주행차가 도로나 횡단보도의 보행자들을 공격할 수 있기 때문이다.

다른 연구들은 자율 차량에 대한 잠재적인 적대적 공격을 입증했습니다.

  • 스티커를 추가하는 것과 같이 거리 표지판 그래픽을 약간 변경하여 기계 학습 알고리즘을 스풀링합니다.
  • 텐센트의 보안 연구원들은 교차로에 소형 스티커 3개를 부착하면 테슬라의 오토파일럿 시스템이 어떻게 잘못된 차선으로 바뀌게 되는지를 보여주고 있다.
  • 두 명의 McAfee 연구원은 검은색 전기 테이프만 사용하면 속도 제한 신호를 35mph에서 85mph로 변경하여 2016년테슬라를 위험한 가속 폭발로 속일 수 있는 방법을 증명했습니다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기