데이터 화이트닝이 XAI 설명 정확도에 미치는 영향 분석

데이터 화이트닝이 XAI 설명 정확도에 미치는 영향 분석
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 연구는 XAI‑TRIS 벤치마크와 2차원 억제 변수 모델을 이용해, 다섯 가지 화이트닝 기법이 16가지 특징 귀속 방법의 설명 성능에 미치는 영향을 실험·이론적으로 평가한다. 결과는 화이트닝이 억제 변수로 인한 오류를 완화할 수 있지만, 효과는 XAI 기법·모델 구조에 따라 크게 달라진다는 점을 보여준다.

상세 분석

이 논문은 두 가지 축으로 분석을 전개한다. 첫째, XAI‑TRIS 데이터셋(8×8 이미지, 네 가지 tetromino 분류 과제)에서 ‘WHITE’(무상관)와 ‘CORR’(가우시안 스무딩으로 상관 부여) 배경을 사용한다. CORR 배경은 억제 변수(suppressor)를 생성해 기존 XAI 방법이 배경 픽셀에 과도한 중요도를 부여하도록 만든다. 연구자는 CORR 데이터에 대해 5가지 화이트닝 변환을 적용한다.

  • Sphering: 공분산 행렬을 고유값 분해 후 단위 분산으로 정규화, 원본 픽셀과 1:1 대응.
  • Symmetric Orthogonalization: 겹침 행렬(비중심 2차 모멘트) 기반, 최소 제곱 차이 최소화.
  • Optimal Signal Preservation (OSP): 상관 행렬 사용, 신호 구조 보존에 초점.
  • Cholesky Whitening: 공분산의 하삼각 행렬을 이용, 픽셀 순서에 의존적인 단계적 정규화.
  • Partial Regression: 각 피처를 다른 피처에 대해 회귀하고 잔차를 사용, 완전한 화이트닝은 아니지만 선형 의존성 감소.

각 화이트닝 후 동일한 학습 파이프라인을 적용한다. 모델은 Linear Logistic Regression, 4‑layer MLP, 4‑layer CNN 세 종류이며, 테스트 정확도가 80 % 이상이 되도록 학습한다. 16가지 XAI 기법(LIME, LRP, Gradient SHAP, Integrated Gradients 등)과 네 가지 모델‑무관 베이스라인(소벨, 라플라스, 무작위, 원본 데이터)도 평가한다.

설명 성능 평가는 Precision(상위 k 픽셀 중 정답 비율)과 Earth Mover’s Distance (EMD)(설명 분포와 정답 분포 간 최적 수송 거리) 두 지표를 사용한다. 정량 결과는 다음과 같다.

  1. CORR 배경에서는 모든 XAI 방법의 Precision과 EMD가 현저히 악화된다(억제 변수 효과).
  2. 화이트닝 적용 시, Sphering, OSP, Symmetric Orthogonalization이 가장 큰 복구 효과를 보이며, 특히 Symmetric Orthogonalization은 가장 높은 Precision·EMD 회복률을 기록한다.
  3. CholeskyPartial Regression은 일부 개선을 보이지만, 여전히 배경 잡음에 대한 잔여 중요도가 남아 있다.
  4. 모델 종류에 따라 차이가 크다. CNN에서는 비선형 특성 때문에 화이트닝 효과가 제한적이며, Linear 모델에서는 화이트닝이 거의 완벽에 가까운 복구를 제공한다.
  5. Gradient‑based XAI(Gradient SHAP, Integrated Gradients)는 화이트닝 전후로 attribution 패턴이 뚜렷하게 집중되는 경향을 보이며, LIME과 같은 샘플링 기반 방법은 화이트닝에 덜 민감하다.

이론적 분석에서는 Wilming et al. (2023)의 2차원 억제 변수 예시를 재검토한다. 두 피처 x₁, x₂가 상관관계 ρ를 갖고, 라벨은 x₁만을 사용해 생성된다. 베이즈 최적 분류기는 억제 변수 x₂를 무시하지만, 일반적인 선형 회귀 기반 귀속은 ρ에 비례해 x₂에 가중치를 부여한다. 화이트닝을 적용하면 공분산이 단위 행렬이 되므로 ρ가 사라지고, 베이즈 최적 모델과 귀속이 일치한다는 것을 증명한다. 그러나 비선형 모델(예: MLP, CNN)에서는 화이트닝 후에도 비선형 변환이 새로운 상관 구조를 만들 수 있어 완전한 억제 제거는 보장되지 않는다.

결론적으로, 화이트닝은 억제 변수로 인한 설명 오류를 크게 감소시킬 수 있지만, 그 효과는 (1) 선택된 화이트닝 기법, (2) 모델의 선형성·비선형성, (3) XAI 방법의 민감도에 따라 달라진다. 따라서 실무에서는 화이트닝을 전처리 단계에 포함시키되, 모델·XAI 조합별로 사전 검증이 필요함을 강조한다.


댓글 및 학술 토론

Loading comments...

의견 남기기