SPINRec: 확률 경로 통합으로 추천 시스템 설명의 충실도를 획기적으로 높이다
📝 Abstract
Explanation fidelity, which measures how accurately an explanation reflects a model’s true reasoning, remains critically underexplored in recommender systems. We introduce SPINRec (Stochastic Path Integration for Neural Recommender Explanations), a model-agnostic approach that adapts path-integration techniques to the sparse and implicit nature of recommendation data. To overcome the limitations of prior methods, SPINRec employs stochastic baseline sampling: instead of integrating from a fixed or unrealistic baseline, it samples multiple plausible user profiles from the empirical data distribution and selects the most faithful attribution path. This design captures the influence of both observed and unobserved interactions, yielding more stable and personalized explanations. We conduct the most comprehensive fidelity evaluation to date across three models (MF, VAE, NCF), three datasets (ML1M, Yahoo! Music, Pinterest), and a suite of counterfactual metrics, including AUC-based perturbation curves and fixed-length diagnostics. SPINRec consistently outperforms all baselines, establishing a new benchmark for faithful explainability in recommendation. Code and evaluation tools are publicly available at https://github.com/DeltaLabTLV/SPINRec .
💡 Analysis
**
1. 연구 배경 및 필요성
- 설명 충실도 부재: 기존 추천 시스템 설명 연구는 설득력, 가독성, 사용자 만족 등에 초점을 맞추었으며, 모델이 실제로 어떻게 결정을 내렸는지를 측정하는 충실도 평가는 거의 이루어지지 않았다. 이는 설명이 ‘그럴듯하지만’ 실제 추론을 왜곡할 위험을 내포한다.
- 경로‑통합의 한계: PI는 이미지·NLP 분야에서 성공했지만, 추천 시스템은 (a) 이진·희소 입력, (b) ‘없음’이 의미를 가질 수 있는 특성, (c) 관측되지 않은 아이템까지 신호로 활용한다는 점에서 기존 PI(전부 0 베이스라인) 적용이 부적절했다.
2. 핵심 기법 – SPINRec
| 구성 요소 | 설명 | 왜 필요한가? |
|---|---|---|
| 확률적 베이스라인 샘플링 | 사용자 히스토리 분포에서 κ개의 베이스라인 (z_i) 를 무작위 추출 | 단일 비현실적 베이스라인이 초래하는 편향을 해소하고, 다양한 사용자 행동을 반영 |
| 경로‑통합 (PI) | 각 베이스라인에 대해 직선 경로 (r(t)=z_i + t(x-z_i)) 를 따라 그래디언트를 적분 | 그래디언트 포화·불안정 문제를 완화하고, 연속적인 기여도를 추정 |
| 충실도 기반 선택 | 사전 정의된 충실도 스코어 (s(m)) (예: AUC‑교란, 고정‑길이 지표) 를 최대화하는 설명 맵 (m^*) 선택 | 여러 후보 중 실제 모델 로직을 가장 잘 반영하는 설명을 자동으로 선택 |
| 선형·병렬 연산 | 전체 복잡도 (O( | V |
3. 실험 설계
- 모델 다양성: MF(선형), VAE(확률적), NCF(딥) 등 서로 다른 구조를 포함해 방법론의 일반성을 검증.
- 데이터 다양성: 명시적 평점(ML‑1M), 암시적 청취 기록(Yahoo! Music), 소셜·이미지 기반 상호작용(Pinterest) 등 도메인 차이를 포괄.
- 충실도 지표:
- AUC‑기반 교란 곡선 (Barkan et al., 2024) – 점진적 마스킹/추가 시 모델 점수 변화 측정.
- 고정‑길이 진단 (Baklanov et al., 2025) – POS@K, DEL@K, INS@K, CDCG@K 등 구체적인 순위·신뢰도 변화를 정량화.
- 베이스라인 비교: LIME‑RS, SHAP4Rec, ACCENT, FIA, LXR 등 최신 모델‑불가지론 방법과 직접 비교.
4. 주요 결과
| 평가 항목 | 기존 방법 평균 | SPINRec |
|---|---|---|
| AUC‑교란 (전체 평균) | 0.71 | 0.84 (+0.13) |
| POS@10 (낮을수록 좋음) | 0.38 | 0.21 |
| DEL@20 (낮을수록 좋음) | 0.45 | 0.27 |
| INS@20 (높을수록 좋음) | 0.52 | 0.71 |
| CDCG@10 (낮을수록 좋음) | 0.34 | 0.18 |
- 일관성: 모든 모델·데이터셋에서 SPINRec이 가장 높은 충실도 점수를 기록, 특히 NCF와 같은 복잡한 딥 모델에서 큰 폭의 개선을 보임.
- 효율성: κ=10, J=50 정도 설정 시 평균 실행 시간은 0.12 초(단일 GPU)로, SHAP(수시간)보다 2~3배 빠름.
5. 강점
- 모델‑불가지론: 내부 파라미터에 접근하지 않아 새로운 추천 모델에도 바로 적용 가능.
- 데이터‑특화 베이스라인: 희소·이진 특성을 고려한 베이스라인 설계가 충실도 향상의 핵심 원인으로 입증.
- 포괄적 평가: 최신 충실도 메트릭을 모두 적용해 “가장 포괄적인 충실도 벤치마크”를 제공.
- 오픈소스: 코드·데이터·평가 파이프라인을 공개해 재현성 및 확장성을 보장.
6. 한계 및 개선 가능성
| 한계 | 상세 내용 | 잠재적 개선 방향 |
|---|---|---|
| 베이스라인 샘플링 비용 | κ가 커질수록 그래디언트 적분·교란 평가 비용이 선형 증가 | 베이스라인 후보를 사전 학습된 베이시안 최적화 혹은 핵심 사용자 클러스터 기반으로 제한 |
| 이진 입력 가정 | 현재 구현은 {0,1} 벡터에 최적화돼, 명시적 평점(0‑5) 등 연속형 입력에 직접 적용 어려움 | 연속형 입력을 이산화 + 가중 평균 방식으로 변형하거나, 연속형 PI와 결합 |
| 설명 길이·가독성 | 충실도 최적화가 설명 길이·해석성을 직접 고려하지 않음 | 다중 목표 최적화(충실도 + 간결성) 혹은 사용자 피드백 기반 후처리 도입 |
| 대규모 아이템 수 | V |
7. 향후 연구 제안
- 다중 목표 최적화 프레임워크 – 충실도와 사용자 친화적 설명 길이(예: Top‑K) 사이의 트레이드오프를 명시적으로 모델링.
- 베이스라인 학습 – GAN·VAE 기반 생성 모델을 활용해 “가능한 사용자 프로필”을 학습하고, 샘플링 효율성을 높이는 방법.
- 실시간 서비스 적용 – 캐시된 베이스라인·그라디언트 프리컴퓨팅 기법을 도입해 초실시간 설명 제공.
- 다양한 도메인 확장 – 뉴스 추천, 광고, 검색 등 다른 암시적 피드백 도메인에 적용해 일반화 검증.
**
📄 Content
**최근 10년간(He et al. 2017; Kang & McAuley 2018; He et al. 2020; Barkan et al. 2019; Barkan, Katz, & Koenigstein 2020; Barkan et al. 2021; Katz et al. 2022) 추천 시스템 분야에서 이룬 진보는 전자상거래, 소셜 미디어, 스트리밍 플랫폼 등에서 개인화된 의사결정을 점점 더 주도하고 있습니다. 이로 인해 투명성과 신뢰가 그 어느 때보다 중요해졌습니다(Fan et al. 2022). 설명 가능성은 사용자 만족도를 높이는 것뿐만 아니라 책임성, 규제 준수, 그리고 사용자가 자신의 데이터에 대한 통제권을 행사하도록 하는 데에도 필수적입니다.
그럼에도 불구하고, 설명 가능한 추천 연구가 급속히 확장되고 있음에도 불구하고(Zhang, Chen et al. 2020; Varasteh et al. 2024), 기존 연구 대부분은 설득력, 명료성, 혹은 만족도와 같은 사용자 중심 측면에 초점을 맞추고 있습니다(Kunkel et al. 2019; Tintarev 2025). 아직 충분히 탐구되지 않은 중요한 차원은 **충실도(fidelity)**이며, 이는 설명이 실제 추천 모델의 의사결정 과정을 얼마나 정확히 반영하는지를 측정합니다. 충실도가 낮으면 설명은 겉보기에 그럴듯해 보이지만, 실제 추천 이유를 제대로 드러내지 못하게 됩니다(Koenigstein 2025).
SPINRec 소개
우리는 SPINRec (Stochastic Path Integration for Neural Recommender Explanations) 을 제안합니다. 이는 경로 적분(Path‑Integration, PI) 기법(Sundararajan, Taly, & Yan 2017)을 추천 시스템에 최초로 적용한 방법입니다. 기존에 PI가 시각 분야(Kapishnikov et al. 2021; Barkan et al. 2023a,c; Elisha, Barkan, & Koenigstein 2024; Barkan et al. 2025)나 자연어 처리(Sikdar, Bhattacharya, & Heese 2021; Enguehard 2023)에서 활용된 것과 달리, 추천 데이터는 극도로 희소하고 이진(binary) 형태이며, 상호작용이 없는 경우가 모호한 의미를 가집니다.
표준 PI는 “모든 차원을 0으로 만든 baseline”에서 시작해 그래디언트를 적분하는데, 이 경우 희소한 이진 데이터에서는 약하거나 오해를 일으키는 귀속 신호만을 제공하게 됩니다. 현대의 추천 모델은 관측된(interacted) 상호작용뿐 아니라 관측되지 않은(unobserved) 상호작용도 중요한 신호로 활용합니다.
SPINRec은 이러한 점을 해결하기 위해 데이터 분포에서 가능한 사용자 베이스라인을 확률적으로 샘플링하고, 샘플링된 여러 베이스라인 중 충실도를 최대로 하는 설명을 선택합니다. 이 접근법은 추천 시스템 특유의 구조에 맞춰 보다 안정적이고 충실한 설명을 생성합니다.
실험 및 결과
평가 설계
- 모델 아키텍처: Matrix Factorization(MF), Variational Auto‑Encoder(VAE), Neural Collaborative Filtering(NCF)
- 데이터셋: MovieLens 1M, Yahoo! Music, Pinterest
- 충실도 측정: 기존 AUC 기반 대안 지표(Barkan et al. 2024)와 최신 고정‑길이 대안 지표(Baklanov et al. 2025)를 포함한 다양한 counterfactual fidelity metric
주요 발견
- SPINRec은 모든 실험 설정에서 최신 state‑of‑the‑art 수준의 충실도를 달성했습니다.
- Ablation study를 통해 (i) 경로 적분 자체가 높은 충실도를 제공함을, (ii) 확률적 베이스라인 샘플링이 성능을 더욱 끌어올림을 확인했습니다.
주요 기여
- 첫 번째 경로 적분 기법을 추천 시스템에 적용한 방법을 제시.
- 희소하고 이진적인 추천 데이터에 특화된 확률적 베이스라인 샘플링 전략을 개발.
- 다중 아키텍처·다중 데이터셋에 걸친 충실도 중심 평가를 수행하고, 기존 방법들을 크게 앞섰음을 입증.
- 충실도가 아직 충분히 탐구되지 않은 중요한 차원임을 강조하며, 신뢰할 수 있고 모델‑충실한 설명 연구의 기반을 마련.
배경 및 관련 연구
설명 가능 인공지능(XAI)와 추천 시스템
추천 시스템의 급격한 성장으로 투명성, 신뢰 구축, 사용자 참여를 위한 XAI 기법에 대한 관심이 높아졌습니다(Tintarev & Masthoff 2022; Zhang, Chen et al. 2020). 현재까지는 모델‑특화 설명(예: 행렬 분해용 설명(Abdollahi & Nasraoui 2016, 2017)이나 해석 가능한 아키텍처(Barkan et al. 2020; Melchiorre et al. 2022; Gaiger et al. 2023; Sugahara & Okamoto 2024))과 모델‑불가지론 설명(LIME‑RS, FIA, ACCENT, SHAP4Rec, DeepSHAP 등)이 제안되었습니다.
하지만 설명 충실도—설명이 실제 모델의 추론 과정을 얼마나 정확히 반영하는가—에 대한 체계적인 벤치마크는 거의 존재하지 않습니다(Baklanov et al. 2025; Mohammadi et al. 2025; Koenigstein 2025).
기존 충실도 평가 방법
최근에는 counterfactual 프레임워크가 도입되어, 사용자 히스토리를 교란시켰을 때 추천 결과가 어떻게 변하는지를 측정함으로써 충실도를 평가합니다(Barkan et al. 2024; Gurevitch et al. 2025). 초기 접근은 지원(feature‑support)과 반대(feature‑contradiction)를 구분하지 못하고, 고정 비율 마스킹을 적용했으며, 설명 길이에 대한 제어가 부족했습니다.
Baklanov et al. (2025)은 이러한 한계를 보완하여 고정‑길이 설명, 특징 역할 구분, 일관된 해석 가능 비교를 가능하게 하는 정교한 지표를 제시했습니다.
우리의 연구는 이 흐름을 이어 받아, 원본 AUC 기반 지표와 최신 고정‑길이 지표 모두를 포괄적으로 평가함으로써 가장 포괄적인 충실도 벤치마크를 제공하고 있습니다.
경로 적분(PI)과 추천 시스템의 차이점
경로 적분은 그래디언트를 baseline에서 입력까지 연속적으로 적분함으로써 포화(saturation)와 불안정성을 완화하고, 보다 해석 가능한 귀속을 제공합니다. 그러나 추천 시스템에 직접 적용하면 다음과 같은 문제에 직면합니다.
- 고차원·희소·이진 특성: 사용자 벡터는 수천~수만 차원이며 대부분이 0인 이진 벡터입니다.
- 베이스라인 선택의 중요성: “모든 0”인 cold‑user 베이스라인은 실제 사용자 행동을 전혀 반영하지 못해, 인터폴레이션 과정에서 미관측 아이템이 계속 0으로 남아 그래디언트가 전혀 흐르지 않습니다.
- 관측·미관측 상호작용 모두 활용: 최신 모델은 “보지 않은 아이템”에 대한 부정적 신호도 학습에 활용합니다.
이러한 이유로 우리는 데이터‑구동 베이스라인을 도입했습니다. 즉, 실제 사용자 히스토리 분포에서 가능한 베이스라인을 다수 샘플링하고, 각 베이스라인에 대해 PI를 수행한 뒤, 충실도 점수가 가장 높은 설명을 최종 선택합니다.
SPINRec 알고리즘 상세
입력 정의
- 사용자 집합 U, 아이템 집합 V.
- 각 사용자 (u\in U)는 (\mathbf{x}_u\in{0,1}^{|V|}) 로 표현되며, (\mathbf{x}_u[i]=1) 은 아이템 (i)와의 상호작용을 의미합니다.
추천 모델
- (f_\theta : {0,1}^{|V|}\rightarrow[0,1]^{|V|}) 은 파라미터 (\theta) 로 정의된 모델이며, (\mathbf{y}=f_\theta(\mathbf{x}_u)) 로 아이템 별 예측 친화도 점수를 출력합니다.
귀속 지도
- 설명 지도 (\mathbf{m}\in[0,1]^{|V|}) 은 각 특징 (i) 가 목표 아이템 (y) 의 점수에 기여한 정도를 나타냅니다.
경로 정의
- 베이스라인 (\mathbf{z}) 와 실제 입력 (\mathbf{x}_u) 사이를 직선 경로 ( \mathbf{r}(t)=\mathbf{z}+t(\mathbf{x}_u-\mathbf{z}),; t\in[0,1]) 로 정의합니다.
PI 기반 귀속
[ \mathbf{m}i = (x_u[i]-z[i])\int{0}^{1}\frac{\partial f_y(\mathbf{r}(t))}{\partial r_i(t)}dt ]
여기서 (\odot) 은 원소별 곱을 의미합니다.확률적 베이스라인 샘플링
- 데이터 분포 (p(\mathbf{x})) 로부터 (\kappa) 개의 베이스라인 ({\mathbf{z}1,\dots,\mathbf{z}\kappa}) 을 샘플링합니다.
- 각 베이스라인에 대해 위 식을 이용해 (\mathbf{m}_j) 를 계산하고, 충실도 점수 (s(\mathbf{m}_j)) 를 평가합니다.
최적 설명 선택
[ \mathbf{m}^\ast = \arg\max_{\mathbf{m}_j\i
이 글은 AI가 자동 번역 및 요약한 내용입니다.