0 / 0
영어 버전 문서로 돌아가기
AI에 대한 인간의 공격 리스크
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 인간의 공격 리스크
사회적 영향 사회적 영향 위험을 나타내는 아이콘입니다.
비기술적 위험
사회적 영향
생성 AI에 의해 증폭됨

설명

유령 근로자와 같이 AI 모델을 학습시키는 근로자에게 적절한 근무 조건, 공정한 보상, 정신 건강을 포함한 좋은 건강 관리 혜택이 제공되지 않는 경우.

인간의 착취가 기초 모델의 문제가 되는 이유는 무엇입니까?

기초 모델은 여전히 모델을 훈련시키는 데 사용되는 데이터를 소싱, 관리 및 프로그래밍하는 데 인간의 노동에 의존합니다. 이러한 활동에 대한 인간의 착취는 사회와 인간의 복지에 부정적인 영향을 미칠 수 있습니다.

입력과 연관된 위험의 배경 이미지

데이터 어노테이션을 위한 저임금 작업자

TIME 미디어가 내부 문서와 직원들의 인터뷰를 검토한 결과, OpenAI을 대신해 아웃소싱 업체에 고용되어 유해 콘텐츠를 식별하는 데이터 라벨러들은 연차와 성과에 따라 시간당 약 $1.32에서 $2 사이의 급여를 받았습니다. '아동 성학대', '전염병', '살인', '자살', '고문', '자해', '근친상간' 등의 내용이 담겨 있다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기