0 / 0
영어 버전 문서로 돌아가기
AI를 위한 데이터 프라이버시 권리 조정 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI를 위한 데이터 프라이버시 권리 조정 위험
개인정보 보호 개인정보 위험을 나타내는 아이콘입니다.
입력과 연관된 위험
훈련 및 튜닝 단계
개인정보 보호
생성 AI에 의해 증폭됨

설명

기존 법률에는 옵트아웃, 액세스 권한, 잊혀질 권리 등의 데이터 주체 권리 제공이 포함될 수 있습니다.

데이터 프라이버시 권한 조정이 재단 모델에 중요한 이유는 무엇인가요?

부적절한 사용 또는 데이터 제거 요청으로 인해 조직이 모델을 재교육해야 할 수 있으며, 이는 많은 비용이 소요됩니다.

입력과 연관된 위험의 배경 이미지

잊혀질 권리 (RTBF)

유럽 (GDPR) 을 포함한 여러 로케일의 법률은 데이터 주체에게 조직에서 삭제할 개인 데이터를 요청할 수 있는 권한을 부여합니다 ('잊혀질 권리' 또는 RTBF). 그러나 점점 더 인기가 높아지고 있는 LLM (Large Language Model) 사용 소프트웨어 시스템은 이러한 권리를 위해 새로운 도전 과제를 제시합니다. CSIRO의 Data61연구에 따르면 데이터 주체는 원래 훈련 데이터 세트를 검사하거나 모델을 프롬프트하여 LLM " 에서 개인 정보의 사용을 식별할 수 있습니다. 그러나 훈련 데이터는 공개되지 않을 수도 있고, 회사가 안전 및 기타 우려를 이유로 공개하지 않을 수도 있습니다. 가드레일은 사용자가 프롬프트를 표시하여 정보에 액세스하지 못하게 할 수도 있습니다. 이러한 장벽으로 인해 데이터 주체가 RTBF 프로시저를 시작하지 못할 수 있으며 LLM을 배치하는 회사는 RTBF 법률을 충족하지 못할 수 있습니다.

입력과 연관된 위험의 배경 이미지

LLM 비학습에 대한 소송

보고서에 따르면, 자사의 Bard 챗봇을 포함한 인공지능 시스템의 교육 데이터로 저작권 자료와 개인 정보를 사용했다고 주장하는 Google 을 상대로 소송이 제기되었습니다. 옵트 아웃 (opt-out) 및 삭제 (deletion) 권리는 CCPA에 속하는 캘리포니아 거주자와 COPPA에 속하는 13세미만의 미국 아동에게 보장됩니다. 원고들은 Bard가 " 배불리 먹은 모든 PI를 배우지 못하거나 완전히 제거할 수 있는 방법이 없기 때문이라고 주장한다. 원고 측은 " 바드의 개인정보 보호에 관한 사항은 회사가 검토하고 어노테이션을 작성한 후에는 사용자가 삭제할 수 없으며 최대 3년까지 유지할 수 있다고 밝혔다. 원고들은 이러한 관행이 이러한 법률을 준수하지 않는 데 더욱 기여한다고 주장합니다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기