0 / 0
영어 버전 문서로 돌아가기
AI에 대한 환각 위험

AI에 대한 환각 위험

출력과 연관된 위험
값 맞추기
생성 AI의 새로운 기능

설명

사실적으로 부정확하거나 진실하지 않은 컨텐츠를 생성합니다.

환각이 기초 모델에 대한 우려가 되는 이유는 무엇인가?

거짓 출력은 사용자를 오도하고 다운스트림 아티팩트에 통합되어 잘못된 정보를 더 확산시킬 수 있습니다. 거짓 출력은 AI 모델의 소유자와 사용자 모두에게 피해를 줄 수 있습니다. 또한 비즈니스 엔티티는 벌금, 평판 손상, 운영 중단 및 기타 법적 결과에 직면할 수 있습니다.

입력과 연관된 위험의 배경 이미지

허위 법률 케이스

출처 기사에 따르면 한 변호사가 연방 법원에 제출된 법률 개요에서 ChatGPT 에 의해 생성된 가짜 케이스 및 인용을 인용했습니다. 변호사들은 항공 상해 청구에 대한 법률 연구를 보완하기 위해 ChatGPT 에 상담했습니다. 그 후에 변호사는 ChatGPT 에 제공된 케이스가 가짜인지 여부를 질문했습니다. 챗봇은 이에 대해 실제 상태이며 " Westlaw및 LexisNexis와 같은 법률 연구 데이터베이스에서 찾을 수 있습니다. 그 변호사는 그 사건들을 확인하지 않았고, 법원은 그들을 제재했다.

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기