0 / 0
영어 버전 문서로 돌아가기
AI에 대한 데이터 편향성 위험
마지막 업데이트 날짜: 2024년 8월 16일
AI에 대한 데이터 편향성 위험
공정성 공정성 위험을 나타내는 아이콘입니다.
입력과 연관된 위험
훈련 및 튜닝 단계
공정성
생성 AI에 의해 증폭됨

설명

모델을 훈련시키고 미세 조정하는 데 사용되는 데이터에 존재하는 히스토리, 표현 및 사회적 편견은 모델 동작에 부정적인 영향을 줄 수 있습니다.

데이터 편향성이 기초 모델에 대한 문제가 되는 이유는 무엇입니까?

과거 또는 구상성 편향성과 같은 편향성이 있는 데이터에 대해 AI 시스템을 훈련시키면 특정 그룹 또는 개인을 부당하게 나타내거나 다르게 구별할 수 있는 편향되거나 왜곡된 출력을 초래할 수 있습니다. 부정적인 사회적 영향 외에도 비즈니스 엔티티는 편향된 모델 결과로 인한 법적 결과 또는 평판 손상에 직면할 수 있습니다.

입력과 연관된 위험의 배경 이미지

의료 편향성

의료 서비스를 받는 방식을 변화시키기 위해 데이터 및 AI 애플리케이션을 사용하여 의료 격차를 강화하는 연구 기사에 따르면 사람들이 의료 서비스를 받는 방식은 그 노력의 배후에 있는 데이터만큼이나 강력합니다. 예를 들어, 열악한 소수 표시가 있거나 이미 동일하지 않은 주의를 반영하는 훈련 데이터를 사용하면 건강 불평등이 증가할 수 있습니다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기