0 / 0
영어 버전 문서로 돌아가기
AI에 대한 데이터 위험의 개인 정보
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 데이터 위험의 개인 정보
개인정보 보호 개인정보 위험을 나타내는 아이콘입니다.
입력과 연관된 위험
훈련 및 튜닝 단계
개인정보 보호
기존 AI 리스크

설명

모델을 훈련시키거나 미세 조정하는 데 사용되는 데이터에 개인 식별 정보 (PII) 및 민감한 개인 정보 (SPI) 를 포함시키거나 포함시키면 해당 정보가 불필요하게 노출될 수 있습니다.

데이터에 있는 개인 정보가 기초 모델에서 중요한 이유는 무엇입니까?

민감한 데이터를 보호하도록 제대로 개발되지 않은 경우, 생성된 출력물에 개인 정보가 노출될 수 있습니다 또한 개인정보 또는 민감한 데이터는 개인정보 보호법 및 규정에 따라 검토하고 처리해야 합니다.

입력과 연관된 위험의 배경 이미지

개인 정보에 대한 교육

이 기사에 따르면, Google 과 그 모회사 알파벳은 방대한 양의 개인정보와 저작권이 있는 자료를 오용한 집단소송에서 기소되었다. 이 정보는 수 억 명의 인터넷 사용자들로부터 수집되어 대화형 생성 인공 지능 챗봇인 Bard를 포함한 상용 AI 제품을 훈련하기 위해 수집되었습니다. 이 케이스는 개인 데이터의 오용 혐의로 메타 플랫폼, Microsoft및 OpenAI 에 대해 제기된 유사한 소송을 따릅니다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기