0 / 0
영어 버전 문서로 돌아가기
AI 위험 지도책

AI 위험 지도책

이 지도책을 탐색하여 생성 AI, 기반 모델 및 기계 학습 모델에 대한 작업의 일부 위험을 이해하십시오.

위험성은 다음 태그 중 하나로 분류됩니다.

  • 기존 AI 리스크 (기존 모델 및 생성 AI에 적용)
  • 생성 AI에 의해 증폭된 위험 (기존 모델에도 적용될 수 있음)
  • 발생 AI와 특별히 연관된 새로운 위험

입력과 연관된 위험의 배경 이미지

입력과 연관된 위험

훈련 및 튜닝 단계

공정성

견고성

데이터 중독
전통적인 인프라

값 맞추기

데이터 법률

데이터 전송
전통적인 인프라
데이터 사용량
전통적인 인프라

지적 재산

데이터의 기밀 정보
전통적인 인프라

투명도

개인정보 보호

데이터의 개인 정보
전통적인 인프라
대한
전통적인 인프라
고지에 입각한 동의
전통적인 인프라

추론 단계

개인정보 보호

멤버십 추론 공격
전통적인 인프라

지적 재산

견고성

프롬프트 삽입
새로 작성

다중 범주

탈옥
증폭
출력과 연관된 위험에 대한 배경 이미지

출력과 연관된 위험

공정성

출력 편향성
새로 작성
의사결정 편향성
전통적인 인프라

지적 재산

저작권 침해
새로 작성

값 맞추기

환각
새로 작성
독성 출력
새로 작성
물리적 피해
새로 작성

오용

정보 분산
새로 작성
분산 독성
새로 작성
위험한 사용
새로 작성
비밀 유지
새로 작성

유해한 코드 생성

개인정보 보호

비기술적 위험에 대한 배경 이미지

비기술적 위험

거버넌스

모델 투명성 부족
전통적인 인프라
신뢰성
증폭

법률 준수

법적 책임
새로 작성
일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기