0 / 0
영어 버전 문서로 돌아가기
AI에 대한 과잉 또는 과소 의존 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 과잉 또는 과소 의존 위험
정렬 정렬 위험을 나타내는 아이콘입니다.
출력과 연관된 위험
값 맞추기
생성 AI에 의해 증폭됨

설명

AI 지원 의사 결정 작업에서 신뢰도는 사람이 모델의 결과를 얼마나 신뢰하는지(그리고 그 결과에 따라 행동할 가능성이 있는지) 측정합니다. 과잉 의존은 모델을 지나치게 신뢰하여 모델의 결과가 틀릴 가능성이 있는데도 모델의 결과를 그대로 받아들이는 경우에 발생합니다. 과소 의존은 그 반대의 경우로, 모델을 신뢰하지 않지만 신뢰해야 하는 경우입니다.

파운데이션 모델에서 과잉 또는 과소 의존이 우려되는 이유는 무엇인가요?

사람이 AI 기반 제안에 따라 선택하는 작업에서 AI 시스템에 대한 과잉/과소 신뢰는 잘못된 의사 결정으로 이어질 수 있으며, 결정의 중요도가 높아질수록 부정적인 결과를 초래할 수 있습니다.

상위 주제: AI 위험 지도책

재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기