0 / 0
영어 버전 문서로 돌아가기
AI에 대한 데이터 투명성 리스크 부족
마지막 업데이트 날짜: 2024년 12월 12일
AI에 대한 데이터 투명성 리스크 부족
거버넌스 거버넌스 리스크를 나타내는 아이콘입니다.
비기술적 위험
거버넌스
생성 AI에 의해 증폭됨

설명

데이터 투명성 부족은 교육 또는 튜닝 데이터 세트 세부 사항에 대한 문서화가 불충분하기 때문입니다

데이터 투명성 부족이 기초 모델의 문제가 되는 이유는 무엇입니까?

투명성은 법률 준수 및 AI 윤리에 중요합니다. 모델 동작 및 적합성을 이해하는 데 필요한 레이블 지정 방법 및 대상자를 포함한 학습 데이터의 수집 및 준비에 대한 정보입니다. 데이터 위험을 결정, 측정, 완화한 방법에 대한 세부 정보는 데이터와 모델 신뢰성을 모두 평가하는 데 중요합니다. 데이터에 대한 세부 정보가 누락되면 표현상의 피해, 데이터 소유권, 출처 및 기타 데이터 중심의 위험을 평가하기가 더 어려워질 수 있습니다. 표준화된 요구사항이 없기 때문에 조직이 영업 비밀을 보호하고 다른 사람이 모델을 복사하는 것을 제한하려고 할 때 공개가 제한될 수 있습니다.

상위 주제: AI 위험 지도책

재단 모델의 여러 위험에 대한 설명을 돕기 위해 언론에서 다룬 사례를 제공합니다. 언론에서 다루는 이러한 사건 중 상당수는 아직 진행 중이거나 해결된 상태이므로 이를 참고하면 잠재적 위험을 이해하고 완화 조치를 취하는 데 도움이 될 수 있습니다. 이러한 예시는 예시를 보여주기 위한 것일 뿐입니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기