영어 버전 문서로 돌아가기AI에 대한 추출 공격 위험
AI에 대한 추출 공격 위험
마지막 업데이트 날짜: 2024년 12월 12일
설명
속성 추론 공격은 모델 학습에 참여한 개인에 대해 특정 민감한 특징을 추론할 수 있는지 여부를 탐지하는 데 사용됩니다. 이러한 공격은 공격자가 학습 데이터에 대한 사전 지식이 있고 그 지식을 사용하여 민감한 데이터를 추론할 때 발생합니다.
추출 공격이 기초 모델의 문제가 되는 이유는 무엇입니까?
추출 공격이 성공하면 공격자는 민감한 개인 정보나 지적 재산과 같은 귀중한 정보를 얻기 위해 추가 공격을 수행할 수 있습니다.
상위 주제: AI 위험 지도책
재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.