영어 버전 문서로 돌아가기AI의 데이터 편향 위험
AI의 데이터 편향 위험
마지막 업데이트 날짜: 2024년 12월 12일
설명
데이터에 존재하는 역사적, 사회적 편견은 모델을 훈련하고 미세 조정하는 데 사용됩니다.
기초 모델에서 데이터 편향이 우려되는 이유는 무엇인가요?
역사적 또는 사회적 편견과 같은 편견이 있는 데이터로 AI 시스템을 학습시키면 특정 그룹이나 개인을 부당하게 대표하거나 차별할 수 있는 편향되거나 왜곡된 결과가 나올 수 있습니다.
예
의료 편향
데이터와 AI 애플리케이션을 사용하여 사람들이 의료 서비스를 받는 방식을 혁신하기 위해 의료 격차를 해소하는 연구 기사에 따르면, 이러한 노력의 기반이 되는 데이터만큼이나 강력한 힘을 발휘할 수 있습니다. 예를 들어, 소수자 대표성이 떨어지거나 이미 불평등한 의료 서비스를 반영하는 학습 데이터를 사용하면 건강 불평등이 심화될 수 있습니다.
출처:
상위 주제: AI 위험도표
재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.