0 / 0
영어 버전 문서로 돌아가기
AI에 대한 추출 공격 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 추출 공격 위험
견고함 견고성 위험을 나타내는 아이콘입니다.
입력과 연관된 위험
추론
견고성
생성 AI에 의해 증폭됨

설명

속성 추론 공격은 모델 학습에 참여한 개인에 대해 특정 민감한 특징을 추론할 수 있는지 여부를 탐지하는 데 사용됩니다. 이러한 공격은 공격자가 학습 데이터에 대한 사전 지식이 있고 그 지식을 사용하여 민감한 데이터를 추론할 때 발생합니다.

추출 공격이 기초 모델의 문제가 되는 이유는 무엇입니까?

추출 공격이 성공하면 공격자는 민감한 개인 정보나 지적 재산과 같은 귀중한 정보를 얻기 위해 추가 공격을 수행할 수 있습니다.

상위 주제: AI 위험 지도책

재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기