0 / 0
영어 버전 문서로 돌아가기
AI에 대한 출력 편향성 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 출력 편향성 위험
공정성 공정성 위험을 나타내는 아이콘입니다.
출력과 연관된 위험
공정성
생성 AI의 새로운 기능

설명

생성된 컨텐츠는 특정 그룹 또는 개인을 부당하게 나타낼 수 있습니다.

출력 편향성이 기초 모델에 대한 문제가 되는 이유는 무엇입니까?

편향은 AI 모델의 사용자를 손상시키고 기존의 차별적인 행동을 확대할 수 있습니다.

입력과 연관된 위험의 배경 이미지

편향된 생성된 이미지

렌사 AI는 사용자가 업로드하는 이미지를 기반으로 '매직 아바타' 를 생성할 수 있는 안정적인 확산 (Stable Diffusion) 교육을 받은 생성 기능이 있는 모바일 앱이다. 출처 보고서에 따르면, 일부 사용자들은 생성된 아바타들이 성적이고 인종적이라는 것을 발견했다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기