0 / 0
영어 버전 문서로 돌아가기
AI에 대한 독성 위험 확산
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 독성 위험 확산
오용 오용 위험을 나타내는 아이콘입니다.
출력과 연관된 위험
오용
생성 AI의 새로운 기능

설명

생성형 AI 모델은 혐오, 욕설, 모욕(HAP) 또는 음란 콘텐츠를 생성하는 데 의도적으로 사용될 수 있습니다.

독성 확산이 기초 모델에 대한 우려가 되는 이유는 무엇입니까?

독성 컨텐츠는 수신인의 웰빙에 부정적인 영향을 미칠 수 있습니다. 이 가능성이 있는 모델은 적절하게 통제되어야 합니다.

입력과 연관된 위험의 배경 이미지

유해한 컨텐츠 생성

출처 기사에 따르면, AI 챗봇 앱은 자살 방법을 포함하여 자살에 대한 유해한 컨텐츠를 생성하는 것으로 최소한의 프롬프트를 표시하는 것으로 발견되었습니다. 벨기에의 한 남성이 그 챗봇과 대화하는 데 6주를 보낸 후 자살로 사망했습니다. 챗봇은 그들의 대화를 통해 점점 더 해로운 반응을 제공했고 그에게 삶을 끝내라고 격려했습니다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기