0 / 0
영어 버전 문서로 돌아가기
AI에 대한 의사결정 편향 리스크
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 의사결정 편향 리스크
공정성 공정성 위험을 나타내는 아이콘입니다.
출력과 연관된 위험
공정성
기존 AI 리스크

설명

의사 결정 편향은 모델의 결정으로 인해 한 그룹이 다른 그룹보다 부당하게 유리할 때 발생합니다. 이는 데이터의 편향으로 인해 발생할 수 있으며 모델 학습의 결과로 증폭될 수도 있습니다.

의사결정 편향성이 기초 모델에 대한 문제가 되는 이유는 무엇입니까?

편견은 모델의 결정에 영향을 받는 사람들에게 해를 끼칠 수 있습니다.

입력과 연관된 위험의 배경 이미지

불공정하게 불리한 집단

2018년성별쉐이드 연구는 기계 학습 알고리즘이 인종, 성별과 같은 클래스를 기반으로 차별할 수 있음을 증명했습니다. 연구자들은 Microsoft, IBM및 Amazon과 같은 회사에서 판매하는 상업용 성별 분류 시스템을 평가한 결과 검은 피부의 여성이 가장 오분류된 그룹 (최대 35%의 오류율) 임을 확인했습니다. 대조적으로, 더 가벼운 피부에 대한 오류율은 1% 이하였다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기