영어 버전 문서로 돌아가기AI에 대한 공개되지 않은 위험
AI에 대한 공개되지 않은 위험
마지막 업데이트 날짜: 2024년 12월 12일
설명
콘텐츠는 AI가 생성한 것으로 명확하게 공개되지 않을 수 있습니다.
공개하지 않는 것이 기초 모델에 대한 문제인 이유는 무엇입니까?
사용자는 AI 시스템과 상호작용할 때 반드시 알림을 받아야 합니다. AI가 작성한 콘텐츠를 공개하지 않으면 투명성이 부족해질 수 있습니다.
예
공개되지 않은 AI 상호작용
소스 기사에 따르면 온라인 감정 지원 채팅 서비스는 사용자에게 알리지 않고 GPT-3 을 사용하여 약 4,000명의 사용자에게 응답을 증가시키거나 쓰기 위한 연구를 수행했습니다. 이 공동 설립자는 이미 취약한 사용자들에게 AI로 인해 발생하는 피해 가능성에 대한 대중의 엄청난 반발에 직면했다. 그는 이 연구가 사전 동의 법의 '면제'를 받았다고 주장했습니다.
상위 주제: AI 위험 지도책
많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.