0 / 0
영어 버전 문서로 돌아가기
AI에 대한 데이터 개인정보 보호 권리 위험

AI에 대한 데이터 개인정보 보호 권리 위험

입력과 연관된 위험
훈련 및 튜닝 단계
개인정보 보호
생성 AI에 의해 증폭됨

설명

옵트 아웃, 액세스 권한, 잊혀질 권리와 같은 데이터 주체 권한을 제공하는 기능에 대한 도전입니다.

데이터 개인정보 보호 권리가 기초 모델에 대해 관심을 갖는 이유는 무엇입니까?

데이터를 식별하거나 부적절하게 사용하면 개인정보 보호법을 위반할 수 있습니다. 부적절한 사용 또는 데이터 제거 요청은 조직이 모델을 재훈련하도록 강제 실행할 수 있으며, 이는 비용이 많이 소요됩니다. 또한 비즈니스 엔티티가 데이터 개인정보 보호 규칙 및 규정을 준수하지 않으면 벌금, 평판 손상, 운영 중단 및 기타 법적 결과에 직면할 수 있습니다.

입력과 연관된 위험의 배경 이미지

잊혀질 권리 (RTBF)

유럽 (GDPR) 을 포함한 여러 로케일의 법률은 데이터 주체에게 조직에서 삭제할 개인 데이터를 요청할 수 있는 권한을 부여합니다 ('잊혀질 권리' 또는 RTBF). 그러나 점점 더 인기가 높아지고 있는 LLM (Large Language Model) 사용 소프트웨어 시스템은 이러한 권리를 위해 새로운 도전 과제를 제시합니다. CSIRO의 Data61연구에 따르면 데이터 주체는 원래 훈련 데이터 세트를 검사하거나 모델을 프롬프트하여 LLM " 에서 개인 정보의 사용을 식별할 수 있습니다. 그러나 훈련 데이터는 공개되지 않을 수도 있고, 회사가 안전 및 기타 우려를 이유로 공개하지 않을 수도 있습니다. 가드레일은 사용자가 프롬프트를 표시하여 정보에 액세스하지 못하게 할 수도 있습니다. 이러한 장벽으로 인해 데이터 주체가 RTBF 프로시저를 시작하지 못할 수 있으며 LLM을 배치하는 회사는 RTBF 법률을 충족하지 못할 수 있습니다.

입력과 연관된 위험의 배경 이미지

LLM 비학습에 대한 소송

보고서에 따르면, 자사의 Bard 챗봇을 포함한 인공지능 시스템의 교육 데이터로 저작권 자료와 개인 정보를 사용했다고 주장하는 Google 을 상대로 소송이 제기되었습니다. 옵트 아웃 (opt-out) 및 삭제 (deletion) 권리는 CCPA에 속하는 캘리포니아 거주자와 COPPA에 속하는 13세미만의 미국 아동에게 보장됩니다. 원고들은 Bard가 " 배불리 먹은 모든 PI를 배우지 못하거나 완전히 제거할 수 있는 방법이 없기 때문이라고 주장한다. 원고 측은 " 바드의 개인정보 보호에 관한 사항은 회사가 검토하고 어노테이션을 작성한 후에는 사용자가 삭제할 수 없으며 최대 3년까지 유지할 수 있다고 밝혔다. P는 이러한 사례가 이러한 법률을 준수하지 않는 데 추가로 기여한다고 주장합니다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기