0 / 0
영어 버전 문서로 돌아가기
AI에 대한 개인 정보 위험 노출
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 개인 정보 위험 노출
개인정보 보호 개인정보 위험을 나타내는 아이콘입니다.
출력과 관련된 위험
개인정보 보호
제너레이티브 AI로 증폭

설명

학습 데이터, 미세 조정 데이터 또는 프롬프트의 일부로 개인 식별 정보(PII) 또는 민감한 개인 정보(SPI)가 사용되는 경우, 생성된 출력에서 모델이 해당 데이터를 표시할 수 있습니다. 개인 정보를 공개하는 것은 데이터 유출의 한 유형입니다.

파운데이션 모델에서 개인 정보 노출이 우려되는 이유는 무엇인가요?

사람들의 PI를 공유하면 그들의 권리에 영향을 미치고 더 취약해질 수 있습니다.

입력과 관련된 위험에 대한 배경 이미지

개인 정보 노출

소스 문서에 따르면 ChatGPT에 버그가 발생하여 제목과 활성 사용자의 채팅 기록이 다른 사용자에게 노출되었습니다. 이후 OpenAI은 활성 사용자의 이름과 성, 이메일 주소, 결제 주소, 신용카드 번호의 마지막 네 자리, 신용카드 만료일 등 소수의 사용자로부터 더 많은 개인 데이터가 노출되었다고 공유했습니다. 또한, 이번 장애로 인해 1.2%의 ChatGPT Plus 가입자의 결제 관련 정보도 노출된 것으로 보고되었습니다.

상위 주제: AI 위험도표

재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기