0 / 0
영어 버전 문서로 돌아가기
AI의 데이터 편향 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI의 데이터 편향 위험
공정성 공정성 위험을 나타내는 아이콘입니다.
입력과 관련된 위험
교육 및 튜닝 단계
공정성
제너레이티브 AI로 증폭

설명

데이터에 존재하는 역사적, 사회적 편견은 모델을 훈련하고 미세 조정하는 데 사용됩니다.

기초 모델에서 데이터 편향이 우려되는 이유는 무엇인가요?

역사적 또는 사회적 편견과 같은 편견이 있는 데이터로 AI 시스템을 학습시키면 특정 그룹이나 개인을 부당하게 대표하거나 차별할 수 있는 편향되거나 왜곡된 결과가 나올 수 있습니다.

입력과 관련된 위험에 대한 배경 이미지

의료 편향

데이터와 AI 애플리케이션을 사용하여 사람들이 의료 서비스를 받는 방식을 혁신하기 위해 의료 격차를 해소하는 연구 기사에 따르면, 이러한 노력의 기반이 되는 데이터만큼이나 강력한 힘을 발휘할 수 있습니다. 예를 들어, 소수자 대표성이 떨어지거나 이미 불평등한 의료 서비스를 반영하는 학습 데이터를 사용하면 건강 불평등이 심화될 수 있습니다.

상위 주제: AI 위험도표

재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기