해석 가능성 기반 이중 목표 최적화 정확도와 설명 가능성의 균형
초록
본 논문은 모델 정확도와 설명 가능성을 동시에 최적화하는 새로운 이중 목표 프레임워크를 제시한다. 해석 가능성 지표를 목적 함수에 포함시켜 파레토 최적 해를 탐색하고, 실험을 통해 기존 방법 대비 정확도와 설명성 모두에서 우수함을 입증한다.
상세 분석
이 논문은 머신러닝 모델의 두 핵심 요구사항인 예측 정확도와 인간이 이해할 수 있는 설명 가능성 사이의 트레이드오프를 체계적으로 다루고 있다. 기존 연구들은 주로 정확도를 극대화하거나, 사후 해석 기법을 별도로 적용하는 방식에 머물렀지만, 본 연구는 두 목표를 하나의 최적화 문제로 통합한다는 점에서 혁신적이다.
우선, 저자들은 설명 가능성을 정량화하기 위해 ‘Feature Attribution Consistency’(FAC)와 ‘Sparsity Index’(SI) 두 가지 지표를 설계한다. FAC는 모델이 동일한 입력에 대해 일관된 특성 중요도 맵을 제공하는 정도를 측정하고, SI는 설명이 얼마나 간결한지를 나타낸다. 두 지표는 각각 01 사이의 값을 가지며, 1에 가까울수록 높은 설명 가능성을 의미한다.2% 이하로 제한되면서도 FAC와 SI 점수가 기존 방법 대비 평균 15% 이상 향상되었다. 둘째, 파레토 전선 상의 다양한 해를 제공함으로써 사용자는 정확도와 설명성 사이에서 원하는 균형점을 직접 선택할 수 있다. 셋째, 설명 가능성 지표가 높은 모델은 도메인 전문가가 수행한 사례 연구에서 의사결정 지원으로서의 신뢰도가 현저히 높았다.
다음으로, 이중 목표 최적화는 전통적인 다목적 진화 알고리즘인 NSGA‑II를 기반으로 구현된다. 목표 함수는 (1) 예측 손실(크로스 엔트로피) 최소화와 (2) 위에서 정의한 설명 가능성 지표의 가중합 최대화를 동시에 고려한다. 가중합은 사용자가 설명성에 부여하고자 하는 중요도에 따라 조정 가능하도록 설계되어, 다양한 응용 시나리오에 유연하게 적용될 수 있다.
알고리즘 흐름은 크게 세 단계로 나뉜다. 첫 번째 단계에서는 초기 개체군을 무작위로 생성하고, 각 개체에 대해 모델 파라미터와 설명 가능성 지표를 동시에 평가한다. 두 번째 단계에서는 비지배 정렬과 군집 거리 계산을 통해 파레토 전선을 형성하고, 선택·교차·돌연변이 연산을 수행한다. 마지막 단계에서는 새로운 세대가 기존 세대와 합쳐진 후, 다시 파레토 전선을 재구성한다. 이 과정을 사전 정의된 반복 횟수 혹은 수렴 기준에 도달할 때까지 반복한다.
실험에서는 세 가지 공개 데이터셋(UTKFace, Adult Income, MIMIC‑III)과 두 종류의 모델(다층 퍼셉트론, Gradient Boosting Machine)을 대상으로 비교 분석을 수행했다. 비교 대상은 (a) 정확도 최적화 전용 모델, (b) 사후 해석 기법(LIME, SHAP)을 적용한 기존 모델, (c) 다목적 최적화를 적용했지만 설명 가능성 지표가 단순히 정규화된 L1 패널티에 기반한 모델이다. 결과는 다음과 같다. 첫째, 제안된 프레임워크는 대부분의 경우 정확도 손실이 1
또한, 저자들은 알고리즘의 계산 복잡도를 분석하여, NSGA‑II 기반 접근법이 기존 단일 목표 최적화 대비 약 1.5배 정도의 연산 시간을 요구하지만, 이는 현대 GPU/CPU 클러스터 환경에서 실시간 서비스 수준을 크게 위협하지 않는 수준이라고 주장한다. 마지막으로, 설명 가능성 지표 자체가 아직 완전한 객관성을 보장하지 못한다는 한계와, 다목적 최적화 과정에서 가중치 설정이 결과에 미치는 민감도 분석이 추가 연구 과제로 제시된다.
댓글 및 학술 토론
Loading comments...
의견 남기기