영어 버전 문서로 돌아가기AI에 대한 신뢰할 수 없는 소스 귀속 위험
AI에 대한 신뢰할 수 없는 소스 귀속 위험
마지막 업데이트 날짜: 2024년 12월 12일
설명
소스 귀속은 AI 시스템이 생성한 훈련 데이터에서 일부 또는 모든 출력을 설명하는 AI 시스템의 기능입니다. 현재 기술은 근사치를 기반으로 하므로 이러한 귀속이 올바르지 않을 수 있습니다.
신뢰할 수 없는 소스 속성이 기초 모델의 문제가 되는 이유는 무엇입니까?
품질이 낮은 어트리뷰션은 사용자, 모델 검증자 및 감사자가 모델을 이해하고 신뢰하기 어렵게 만듭니다.
상위 주제: AI 위험 지도책
재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.