영어 버전 문서로 돌아가기AI에 대한 개인 정보 위험 노출
AI에 대한 개인 정보 위험 노출
마지막 업데이트 날짜: 2024년 12월 12일
설명
학습 데이터, 미세 조정 데이터 또는 프롬프트의 일부로 개인 식별 정보(PII) 또는 민감한 개인 정보(SPI)가 사용되는 경우, 생성된 출력에서 모델이 해당 데이터를 표시할 수 있습니다. 개인 정보를 공개하는 것은 데이터 유출의 한 유형입니다.
파운데이션 모델에서 개인 정보 노출이 우려되는 이유는 무엇인가요?
사람들의 PI를 공유하면 그들의 권리에 영향을 미치고 더 취약해질 수 있습니다.
예
개인 정보 노출
소스 문서에 따르면 ChatGPT에 버그가 발생하여 제목과 활성 사용자의 채팅 기록이 다른 사용자에게 노출되었습니다. 이후 OpenAI은 활성 사용자의 이름과 성, 이메일 주소, 결제 주소, 신용카드 번호의 마지막 네 자리, 신용카드 만료일 등 소수의 사용자로부터 더 많은 개인 데이터가 노출되었다고 공유했습니다. 또한, 이번 장애로 인해 1.2%의 ChatGPT Plus 가입자의 결제 관련 정보도 노출된 것으로 보고되었습니다.
상위 주제: AI 위험도표
재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.