0 / 0
영어 버전 문서로 돌아가기
AI의 불완전한 조언 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI의 불완전한 조언 위험
정렬 정렬 위험을 나타내는 아이콘입니다.
출력과 관련된 위험
가치 정렬
제너레이티브 AI를 처음 접하는 분

설명

모델이 충분한 정보가 없는 상태에서 조언을 제공하고 그 조언을 따를 경우 피해를 입을 수 있는 경우.

불완전한 조언이 파운데이션 모델에 문제가 되는 이유는 무엇인가요?

생성된 콘텐츠의 지나치게 일반화된 특성으로 인해 불완전한 조언에 따라 행동하거나 자신에게 적용되지 않는 상황에 대해 걱정할 수 있습니다. 예를 들어, 모델이 잘못된 의료, 재정, 법률 관련 조언이나 권장 사항을 제공하여 최종 사용자가 이에 따라 행동하여 해로운 결과를 초래할 수 있습니다.

입력과 관련된 위험에 대한 배경 이미지

잘못된 조언

출처 기사에 따르면, 뉴욕시가 소상공인을 돕기 위해 만든 AI 챗봇이 지역 정책을 잘못 설명하거나 기업에 법 위반을 권고하는 등 부정확하거나 유해한 조언을 제공한 것으로 나타났습니다. 챗봇은 사업체가 검은색 쓰레기 봉투에 쓰레기를 버려도 되고 퇴비화할 필요가 없다고 잘못 제안했는데, 이는 뉴욕시의 대표적인 두 가지 폐기물 이니셔티브와 모순되는 것입니다. 또한 설치류가 갉아먹은 치즈를 식당에서 제공할 수 있느냐는 질문에는 긍정적인 답변을 내놓았습니다.

상위 주제: AI 위험도표

재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기