0 / 0
영어 버전 문서로 돌아가기
AI에 대한 부적절한 재교육 위험
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 부적절한 재교육 위험
정렬 정렬 위험을 나타내는 아이콘입니다.
입력과 연관된 위험
훈련 및 튜닝 단계
값 맞추기
제너레이티브 AI로 증폭

설명

재학습 목적으로 바람직하지 않은 출력(예: 부정확하거나 부적절한 사용자 콘텐츠)을 사용하면 예기치 않은 모델 동작이 발생할 수 있습니다.

파운데이션 모델에서 부적절한 재교육이 우려되는 이유는 무엇인가요?

적절한 인적 검증 없이 모델 재학습을 위해 생성된 결과물의 용도를 변경하면 바람직하지 않은 결과물이 모델의 학습 또는 튜닝 데이터에 포함될 가능성이 높아집니다. 결과적으로 이 모델은 훨씬 더 바람직하지 않은 결과를 생성할 수 있습니다.

입력과 연관된 위험의 배경 이미지

AI 생성 컨텐츠를 사용한 훈련으로 인한 모델 접기

소스 기사에서 언급한 바와 같이, 영국과 캐나다의 연구원 그룹은 인간이 생성한 컨텐츠 대신 AI 생성 컨텐츠를 훈련에 사용하는 문제점을 조사했습니다. 그들은 기술 이면의 대형 언어 모델이 잠재적으로 다른 AI 생성 컨텐츠에 대해 훈련될 수 있음을 발견했습니다. 생성된 데이터가 인터넷을 통해 계속 대량으로 확산됨에 따라 "모델 붕괴"라는 현상이 발생할 수 있습니다

상위 주제: AI 위험 지도책

많은 기초 모델의 위험을 설명하는 데 도움이 되도록 언론에서 다루는 예제를 제공합니다. 언론이 다루고 있는 이러한 많은 사건들은 여전히 진화하고 있거나 해결되었으며, 이를 참조하는 것은 독자가 잠재적인 위험을 이해하고 완화를 향해 노력하는 데 도움이 될 수 있다. 이 예제를 강조표시하는 것은 설명을 위한 것입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기