뇌종양 검출을 위한 통합 XAI 프레임워크: Grad‑CAM·LRP·SHAP 융합 접근법
초록
본 연구는 BraTS 2021 데이터셋으로 학습한 맞춤형 CNN 모델에 Grad‑CAM, LRP, SHAP 세 가지 XAI 기법을 결합해 뇌종양 검출 과정을 다층적으로 설명한다. 91.24%의 정확도를 달성했으며, 각 기법이 제공하는 영역‑단위, 픽셀‑단위, 특성‑기여도 설명을 종합해 부분 종양까지도 신뢰성 있게 해석한다.
상세 분석
이 논문은 의료 영상 분야에서 딥러닝 모델의 ‘블랙박스’ 문제를 해결하고자 XAI 기법을 다중 적용하는 새로운 프레임워크를 제안한다. 먼저, 저자들은 BraTS 2021 데이터셋(다중 모달 MRI: T1, T1‑Gd, T2, FLAIR)을 사용해 5개의 합성곱 층과 2개의 완전 연결 층으로 구성된 맞춤형 CNN을 설계하였다. 데이터 전처리 단계에서는 N4ITK 바이어스 보정, 정규화, 그리고 3‑D 볼륨을 2‑D 슬라이스로 변환한 뒤 클래스 불균형을 완화하기 위해 SMOTE와 랜덤 회전·확대·축소를 적용하였다. 학습은 Adam 옵티마이저(learning rate = 1e‑4)와 교차 엔트로피 손실 함수를 사용했으며, 5‑fold 교차 검증 결과 평균 정확도는 91.24%에 달했다.
설명 단계에서는 세 가지 상보적인 XAI 방법을 동시에 활용한다. Grad‑CAM은 마지막 합성곱 층의 가중 평균을 통해 이미지 전체에서 모델이 주목한 영역을 시각화해, 종양이 위치한 대략적인 ROI를 제공한다. LRP는 각 뉴런의 기여도를 역전파하여 픽셀 수준의 양·음성 기여도를 정량화함으로써, 종양 내부와 주변 조직의 미세한 차이를 드러낸다. SHAP는 모델 입력 특성(각 MRI 시퀀스)의 마진 기여도를 샘플링 기반으로 추정해, 어느 시퀀스가 진단에 가장 큰 영향을 미쳤는지를 수치적으로 보여준다.
세 기법을 통합함으로써 저자들은 (1) 광범위한 영역 식별 → (2) 세밀한 픽셀 기여도 해석 → (3) 시퀀스별 중요도 정량화라는 3단계 설명 흐름을 구축했다. 실험 결과, 전체 종양뿐 아니라 부분적으로만 보이는 종양(예: 슬라이스 경계에 위치한 경우)에서도 Grad‑CAM이 큰 ROI를, LRP가 정확한 경계 픽셀을, SHAP가 해당 시퀀스의 기여도를 명확히 제시해, 단일 XAI 기법에 비해 해석 정확도와 신뢰도가 현저히 향상되었다는 것을 입증하였다. 또한, 각 기법별 설명을 정량적으로 비교하기 위해 설명 일관성 지표(Intersection‑over‑Union, Pearson correlation)와 의사결정 일관성 설문을 수행했으며, 통합 접근법이 평균 12% 높은 일관성을 보였다.
한계점으로는 (i) 2‑D 슬라이스 기반 접근으로 인해 3‑D 종양 형태 정보를 완전히 활용하지 못함, (ii) SHAP 계산 비용이 높아 실시간 임상 적용에 제약이 있음, (iii) 데이터셋이 BraTS 2021에 국한돼 외부 병원 데이터에 대한 일반화 검증이 부족하다는 점을 언급한다. 향후 연구에서는 3‑D CNN과 경량 SHAP 변형을 결합하고, 다기관 데이터로 외부 검증을 수행할 계획이다.
댓글 및 학술 토론
Loading comments...
의견 남기기