GNN 기반 협업 필터링의 인기 편향을 사후 보정하는 방법
초록
본 논문은 그래프 신경망(GNN) 기반 협업 필터링 모델에서 발생하는 인기 편향을 사후 처리 방식으로 제거한다. 사전 학습된 사용자·아이템 임베딩에 대해 상호작용 수준의 인기 점수를 추정하고, 각 노드의 임베딩에서 인기 방향 벡터 성분을 투영·제거함으로써 편향을 감소시키면서 개인화된 선호는 보존한다. 재학습 없이 적용 가능하며, 실험을 통해 기존 편향 교정 기법보다 우수함을 입증한다.
상세 분석
이 연구는 GNN 기반 협업 필터링에서 인기 편향이 어떻게 증폭되는지를 명확히 규명하고, 이를 해결하기 위한 사후 보정(Post‑hoc Popularity Debiasing, PPD) 프레임워크를 제안한다. 기존 방법들은 손실 함수에 가중치를 부여하거나 메시지 전달 단계에서 인기 아이템을 낮은 가중치로 처리하는 방식으로 편향을 완화하려 했지만, 초기 학습 단계에서 불안정한 노드 표현 때문에 오히려 학습을 방해한다는 한계를 가지고 있다. PPD는 이러한 문제를 회피하기 위해 사전 학습된 임베딩을 그대로 사용한다는 점에서 차별화된다.
핵심 아이디어는 두 단계로 구성된다. 첫째, 각 사용자‑아이템 상호작용에 대해 “인기 점수”를 추정한다. 이는 전역적인 아이템 인기(예: 아이템 차수)와 개인화된 선호(사용자와 아이템 임베딩 간 코사인 유사도)를 결합한 복합 지표이며, 이를 통해 특정 상호작용이 얼마나 인기‑구동인지 정량화한다. 둘째, 각 노드(사용자 또는 아이템)마다 인기 방향 벡터(popularity direction vector)를 정의한다. 이 벡터는 해당 노드와 연결된 상호작용들의 인기 점수 가중 평균으로 계산되며, 노드 임베딩을 이 방향에 투영한 뒤 그 성분을 빼는 방식으로 “인기 성분”을 제거한다. 수학적으로는 e′ = e − ( e·p̂ ) p̂ 와 같이 표현된다( e : 원본 임베딩, p̂ : 정규화된 인기 방향 벡터).
PPD는 다음과 같은 장점을 제공한다. 1) 손실 함수 수정이 필요 없으므로 기존 GNN 기반 CF 모델(LightGCN, NGCF, 대비 학습 기반 모델 등)에 그대로 적용 가능하다. 2) 재학습을 요구하지 않아 이미 서비스 중인 시스템에 즉시 배포할 수 있다. 3) 인기 추정을 임베딩 수준에서 수행하므로, 초기 학습 단계의 불안정성에 영향을 받지 않는다. 4) 기존 사후 방법(DAP)이 단순히 노드 차수만 이용해 인기 효과를 추정한 반면, PPD는 상호작용 수준의 정교한 추정과 개인화된 영향을 모두 반영한다.
실험에서는 KuaiRec, Coat, Yahoo! R3 등 장기적인 롱테일 특성을 가진 공개 데이터셋을 사용하였다. 평가 지표는 정확도(Recall@K, NDCG@K)와 편향 측정(average popularity, tail‑item coverage) 두 축을 모두 고려하였다. PPD는 대부분의 경우 정확도 손실 없이 인기 편향을 현저히 감소시켰으며, 특히 Tail‑item coverage가 10‑15% 향상되는 등 기존 IPW 기반 손실 가중치나 메시지 가중치 방식보다 뛰어난 성능을 보였다.
한계점으로는 인기 방향 벡터를 추정하기 위한 하이퍼파라미터(예: 인기 점수의 스케일링, 벡터 정규화 방식)가 데이터셋마다 민감하게 작용할 수 있다는 점이다. 또한, 매우 희소한 사용자‑아이템 쌍에 대해서는 인기 추정이 불안정해질 가능성이 있다. 향후 연구에서는 베이지안 방식으로 인기 점수의 불확실성을 모델링하거나, 다중 인기 방향(예: 카테고리별, 시간별)을 동시에 고려하는 확장 방안을 탐색할 수 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기