영어 버전 문서로 돌아가기AI에 대한 동의하지 않은 사용 위험
AI에 대한 동의하지 않은 사용 위험
마지막 업데이트 날짜: 2024년 12월 12일
설명
생성 AI 모델은 의도적으로 사용자의 동의 없이 비디오, 이미지, 오디오 또는 기타 양식을 사용하여 딥페이크를 통해 사람을 모방하는 데 사용될 수 있습니다.
기본 모델에 대한 비합의 사용이 문제가 되는 이유는 무엇입니까?
딥파크는 개인에 대한 정보를 잃을 수 있으며, 이로 인해 개인의 평판에 부정적인 영향을 미칠 수 있습니다. 이 가능성이 있는 모델은 적절하게 통제되어야 합니다.
예
FBI, 거짓에 대한 경고
미 연방수사국 (FBI) 은 최근 " 피해자를 괴롭히거나 성차별행위를 하기 위한 목적으로 합성되고 명시적인 내용을 만들어 내는 악의적인 행위자들에 대해 공개적으로 경고했다. 그들은 AI의 발전으로 이 컨텐츠의 품질이 높아지고, 사용자 정의할 수 있으며, 그 어느 때보다 액세스할 수 있게 되었다는 점에 주목했습니다.
출처:
예
오디오 DeepFkes
이 기사에 따르면 미국 연방통신위원회 (FCC) 는 인공지능이 만들어 낸 음성을 담고 있는 로보콜을 불법으로 규정했다. 이 발표는 인공지능이 만들어 낸 로보콜이 대통령의 목소리를 흉내 내서 국민들이 국가 최초의 국민참여경선에서 투표하는 것을 막은 후에 나왔다.
출처:
상위 주제: AI 위험 지도책
많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.