영어 버전 문서로 돌아가기AI에 대한 데이터 편향성 위험
AI에 대한 데이터 편향성 위험
마지막 업데이트 날짜: 2024년 8월 16일
설명
모델을 훈련시키고 미세 조정하는 데 사용되는 데이터에 존재하는 히스토리, 표현 및 사회적 편견은 모델 동작에 부정적인 영향을 줄 수 있습니다.
데이터 편향성이 기초 모델에 대한 문제가 되는 이유는 무엇입니까?
과거 또는 구상성 편향성과 같은 편향성이 있는 데이터에 대해 AI 시스템을 훈련시키면 특정 그룹 또는 개인을 부당하게 나타내거나 다르게 구별할 수 있는 편향되거나 왜곡된 출력을 초래할 수 있습니다. 부정적인 사회적 영향 외에도 비즈니스 엔티티는 편향된 모델 결과로 인한 법적 결과 또는 평판 손상에 직면할 수 있습니다.
예
의료 편향성
의료 서비스를 받는 방식을 변화시키기 위해 데이터 및 AI 애플리케이션을 사용하여 의료 격차를 강화하는 연구 기사에 따르면 사람들이 의료 서비스를 받는 방식은 그 노력의 배후에 있는 데이터만큼이나 강력합니다. 예를 들어, 열악한 소수 표시가 있거나 이미 동일하지 않은 주의를 반영하는 훈련 데이터를 사용하면 건강 불평등이 증가할 수 있습니다.
상위 주제: AI 위험 지도책
많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.