영어 버전 문서로 돌아가기AI에 대한 기밀 정보 위험 노출
AI에 대한 기밀 정보 위험 노출
마지막 업데이트 날짜: 2024년 12월 12일
설명
기밀 정보가 훈련 데이터, 미세 조정 데이터 또는 프롬프트의 일부로 사용되는 경우 모델은 생성된 출력에서 해당 데이터를 표시할 수 있습니다. 기밀 정보를 노출하는 것은 데이터 유출의 한 유형입니다.
기밀 정보를 공개하는 것이 재단 모델의 문제가 되는 이유는 무엇입니까?
기밀 데이터를 보안하기 위해 적절하게 개발되지 않은 경우, 모델은 생성된 출력에서 기밀 정보 또는 IP를 표시하고 기밀이 되도록 의도된 정보를 표시할 수 있습니다.
상위 주제: AI 위험 지도책
재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.