영어 버전 문서로 돌아가기AI에 대한 독성 위험 확산
AI에 대한 독성 위험 확산
마지막 업데이트 날짜: 2024년 12월 12일
설명
생성형 AI 모델은 혐오, 욕설, 모욕(HAP) 또는 음란 콘텐츠를 생성하는 데 의도적으로 사용될 수 있습니다.
독성 확산이 기초 모델에 대한 우려가 되는 이유는 무엇입니까?
독성 컨텐츠는 수신인의 웰빙에 부정적인 영향을 미칠 수 있습니다. 이 가능성이 있는 모델은 적절하게 통제되어야 합니다.
예
유해한 컨텐츠 생성
출처 기사에 따르면, AI 챗봇 앱은 자살 방법을 포함하여 자살에 대한 유해한 컨텐츠를 생성하는 것으로 최소한의 프롬프트를 표시하는 것으로 발견되었습니다. 벨기에의 한 남성이 그 챗봇과 대화하는 데 6주를 보낸 후 자살로 사망했습니다. 챗봇은 그들의 대화를 통해 점점 더 해로운 반응을 제공했고 그에게 삶을 끝내라고 격려했습니다.
상위 주제: AI 위험 지도책
많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.