0 / 0
영어 버전 문서로 돌아가기
AI에 대한 멤버십 추론 공격 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 멤버십 추론 공격 위험
개인정보 보호 개인정보 위험을 나타내는 아이콘입니다.
입력과 연관된 위험
추론
개인정보 보호
제너레이티브 AI로 증폭

설명

멤버십 추론 공격은 주어진 입력이 모델 학습의 일부인지 여부를 판단하기 위해 모델을 반복적으로 쿼리합니다. 보다 구체적으로, 훈련된 모델과 데이터 샘플이 주어지면 공격자는 입력 공간을 샘플링하고 출력을 관찰하여 해당 샘플이 모델 훈련의 일부인지 추론합니다.

멤버십 추론이 기초 모델에 대한 문제가 되는 이유는 무엇입니까?

데이터 샘플이 학습 데이터에 사용되었는지 확인하면 어떤 데이터가 모델 학습에 사용되었는지 알 수 있습니다. 경쟁업체에게 모델이 어떻게 훈련되었는지에 대한 인사이트를 제공하고 모델을 복제하거나 조작할 수 있는 기회를 제공할 수 있습니다. 공개적으로 사용 가능한 데이터를 포함하는 모델은 이러한 공격의 위험이 더 높습니다.

상위 주제: AI 위험 지도책

재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기