영어 버전 문서로 돌아가기AI에 대한 출력 편향성 위험
AI에 대한 출력 편향성 위험
마지막 업데이트 날짜: 2024년 12월 12일
설명
생성된 컨텐츠는 특정 그룹 또는 개인을 부당하게 나타낼 수 있습니다.
출력 편향성이 기초 모델에 대한 문제가 되는 이유는 무엇입니까?
편향은 AI 모델의 사용자를 손상시키고 기존의 차별적인 행동을 확대할 수 있습니다.
예
편향된 생성된 이미지
렌사 AI는 사용자가 업로드하는 이미지를 기반으로 '매직 아바타' 를 생성할 수 있는 안정적인 확산 (Stable Diffusion) 교육을 받은 생성 기능이 있는 모바일 앱이다. 출처 보고서에 따르면, 일부 사용자들은 생성된 아바타들이 성적이고 인종적이라는 것을 발견했다.
상위 주제: AI 위험 지도책
많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.