영어 버전 문서로 돌아가기AI에 대한 의사결정 편향 리스크
AI에 대한 의사결정 편향 리스크
마지막 업데이트 날짜: 2024년 12월 12일
설명
의사 결정 편향은 모델의 결정으로 인해 한 그룹이 다른 그룹보다 부당하게 유리할 때 발생합니다. 이는 데이터의 편향으로 인해 발생할 수 있으며 모델 학습의 결과로 증폭될 수도 있습니다.
의사결정 편향성이 기초 모델에 대한 문제가 되는 이유는 무엇입니까?
편견은 모델의 결정에 영향을 받는 사람들에게 해를 끼칠 수 있습니다.
예
불공정하게 불리한 집단
2018년성별쉐이드 연구는 기계 학습 알고리즘이 인종, 성별과 같은 클래스를 기반으로 차별할 수 있음을 증명했습니다. 연구자들은 Microsoft, IBM및 Amazon과 같은 회사에서 판매하는 상업용 성별 분류 시스템을 평가한 결과 검은 피부의 여성이 가장 오분류된 그룹 (최대 35%의 오류율) 임을 확인했습니다. 대조적으로, 더 가벼운 피부에 대한 오류율은 1% 이하였다.
출처:
상위 주제: AI 위험 지도책
많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.