모델 트랜잭션에 대한 설명은 예측이 어떻게 결정되는지 이해하는 데 도움이 됩니다.
로컬 설명을 분석하여 특정 트랜잭션에 대한 요인의 영향을 이해하거나 글로벌 설명을 분석하여 모델 결과에 영향을 주는 일반 요인을 이해할 수 있습니다. 구성하는 모델 유형에 따라 트랜잭션을 분석하는 데 사용할 수 있는 설명 유형이 결정됩니다.
설명은 정형, 이미지 및 비정형 텍스트 모델에 대해 지원됩니다. 구조화된 모델은 2진, 다중 클래스 또는 회귀 분류 문제점을 사용할 수 있습니다. 이미지 또는 구조화되지 않은 텍스트 모델은 2진 또는 다중 클래스 분류 문제점을 사용할 수 있습니다.
설명 가능성을 구성할 때 LIME(로컬 해석 가능 모델-무시적 설명), 대조적 설명 또는 SHAP(샤플리 부가 설명)을 사용하여 트랜잭션을 분석할 수 있습니다.
LIME는 최대 5000개의 다른 close-by 데이터 점을 분석하여 특정 데이터 점에 가장 중요한 기능을 식별합니다. 이상적인 설정에서는 LIME에서 중요도가 높은 기능은 해당 특정 데이터 점에 가장 중요한 기능입니다.
대조 설명은 예측을 변경하거나 동일한 예측을 유지하기 위해 변경해야 하는 값 수를 계산합니다. 최대 변경이 필요한 요소를 더 중요하게 생각하므로, 대비 설명에서 가장 중요한 기능은 모델이 가장 덜 민감한 기능입니다. 대조적인 설명을 위해 동일한 결과에 대한 최대 변경 사항과 변경된 결과에 대한 최소 변경 사항이 표시됩니다. 이러한 카테고리는 또한 PP(Pertinent Positive) 및 PN(Pertinent Negative) 값으로도 알려져 있습니다. 이러한 값은 설명이 생성된 데이터 점의 부근에서 모델의 동작을 설명하는 데 도움을 줍니다.
SHAP는 기계 학습 모델의 출력을 설명하는 게임 이론적 접근 방식입니다. Shapley값 및 관련 확장을 사용하여 최적의 신용 할당을 로컬 설명과 연결합니다. SHAP는 각 모델 기능에 Shapley값이라고 하는 특정 예측에 대한 중요도 값을 지정합니다. Shapley 값은 모든 가능한 기능 그룹에 걸친 피쳐 값의 평균 한계 기여도입니다. 입력 기능의 SHAP값은 기준선 또는 예상 모델 출력과 설명 중인 예측의 현재 모델 출력 간 차이의 합계입니다. 기준선 모델 출력은 훈련 데이터의 요약 또는 설명이 생성되어야 하는 데이터의 서브세트를 기반으로 할 수 있습니다. 트랜잭션 세트의 Shapley값을 조합하여 가장 중요한 모델의 기능에 대한 개요를 제공하는 글로벌 설명을 얻을 수 있습니다.
온라인 구독에 대한 글로벌 설명만 지원됩니다. SHAP 설명은 표 형식 데이터만 지원합니다.
로컬 설명 분석
다양한 방법을 사용하여 지역 설명을 볼 수 있습니다.
평가 결과를 검토할 때 설명 수 링크를 선택하여 설명 선택 창을 열 수 있습니다.
조치 컬럼에서 설명 을 선택하여 트랜잭션 세부사항 페이지를 표시하십시오. 트랜잭션 세부사항 은 사용하는 설명 메소드 및 모델 유형에 따라 다른 설명을 제공합니다.
범주형 모델의 경우 설명 탭에서 트랜잭션 세부사항 페이지는 사용하는 로컬 설명 메소드를 사용하여 트랜잭션의 결과에 영향을 준 기능의 분석을 제공합니다. SHAP의 경우 백그라운드 데이터 메뉴에서 사용하는 백그라운드 데이터를 선택하여 설명을 다시 생성할 수 있습니다.
검사 탭에서는 이진 분류 모델에 대한 고급 대조 설명이 생성되어 값을 변경하여 결과의 변화 여부를 확인하여 기능을 실험하는 데 사용할 수 있습니다.
다음 유형의 트랜잭션에 대한 다른 설명을 볼 수도 있습니다.
이미지 트랜잭션 설명
이미지 모델의 경우 예측 결과에 긍정적 및 부정적으로 기여하는 이미지 파트를 볼 수 있습니다. 다음 예제에서 긍정적 패널의 이미지는 예측에 긍정적으로 영향을 미치는 파트를 표시합니다. 네거티브 패널의 이미지는 결과에 부정적인 영향을 미치는 이미지의 파트를 표시합니다.
다음 노트북을 사용하여 이미지 모델에 대한 설명을 생성할 수도 있습니다.
비정형 텍스트 트랜잭션 설명
구조화되지 않은 텍스트 모델의 경우 모델 예측에 긍정적 또는 부정적 영향을 미치는 키워드를 볼 수 있습니다. 구조화되지 않은 텍스트 모델은 단어 또는 토큰의 중요성을 설명합니다.
설명은 또한 모델에 입력으로서 제공된 원본 텍스트에서 식별된 키워드의 위치를 보여줍니다. 언어를 변경하려면 목록에서 다른 언어를 선택하십시오. 설명은 다른 토크나이저를 사용하여 다시 실행됩니다.
다음 노트북을 사용하여 구조화되지 않은 텍스트 모델에 대한 설명을 생성할 수도 있습니다.
표 형식 트랜잭션 설명
표 형식 분류 모델의 경우 모델 예측에 긍정적인 영향을 주는 상위 세 개의 기능과 예측에 부정적인 영향을 주는 상위 세 개의 기능을 볼 수 있습니다.
로컬 설명을 보려면 트랜잭션 설명 탭 을 선택하여 최근 트랜잭션 페이지를 열 수도 있습니다. 이 페이지에는 모델에서 처리되는 모든 트랜잭션이 표시됩니다.
글로벌 설명 분석
설명 가능성을 구성할 때 SHAP 또는 LIME 글로벌 설명 방법을 활성화하면 글로벌 설명 안정성 메트릭에 대한 세부 정보를 볼 수 있습니다. 글로벌 설명 메트릭은 시간 경과에 따른 글로벌 설명의 일관성 정도를 계산합니다.
글로벌 설명을 분석할 때 다음과 같은 세부 정보도 볼 수 있습니다:
기능 영향
가장 중요한 피처를 평균 절대 SHAP 또는 LIME 값의 내림차순으로 확인하여 모델 예측에 가장 큰 영향을 미치는 피처를 파악할 수 있습니다.
기능 배포
피처 분포 차트는 SHAP 또는 LIME 값이 가장 중요한 피처의 예측에 어떤 영향을 미치는지 보여줍니다. 차트를 사용하여 기능과 예측 간의 상관관계를 이해할 수 있습니다.
비교
현재 글로벌 설명과 기준 글로벌 설명 간의 기능 영향력 변화를 비교하여 볼 수 있습니다
상위 주제: 모델 트랜잭션 검토