0 / 0
영어 버전 문서로 돌아가기
AI에 대한 동의하지 않은 사용 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 동의하지 않은 사용 위험
오용 오용 위험을 나타내는 아이콘입니다.
출력과 연관된 위험
오용
생성 AI에 의해 증폭됨

설명

생성 AI 모델은 의도적으로 사용자의 동의 없이 비디오, 이미지, 오디오 또는 기타 양식을 사용하여 딥페이크를 통해 사람을 모방하는 데 사용될 수 있습니다.

기본 모델에 대한 비합의 사용이 문제가 되는 이유는 무엇입니까?

딥파크는 개인에 대한 정보를 잃을 수 있으며, 이로 인해 개인의 평판에 부정적인 영향을 미칠 수 있습니다. 이 가능성이 있는 모델은 적절하게 통제되어야 합니다.

입력과 연관된 위험의 배경 이미지

FBI, 거짓에 대한 경고

미 연방수사국 (FBI) 은 최근 " 피해자를 괴롭히거나 성차별행위를 하기 위한 목적으로 합성되고 명시적인 내용을 만들어 내는 악의적인 행위자들에 대해 공개적으로 경고했다. 그들은 AI의 발전으로 이 컨텐츠의 품질이 높아지고, 사용자 정의할 수 있으며, 그 어느 때보다 액세스할 수 있게 되었다는 점에 주목했습니다.

입력과 연관된 위험의 배경 이미지

오디오 DeepFkes

이 기사에 따르면 미국 연방통신위원회 (FCC) 는 인공지능이 만들어 낸 음성을 담고 있는 로보콜을 불법으로 규정했다. 이 발표는 인공지능이 만들어 낸 로보콜이 대통령의 목소리를 흉내 내서 국민들이 국가 최초의 국민참여경선에서 투표하는 것을 막은 후에 나왔다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기