온라인 영향력 최대화: 탐색·활용과 점진적 샘플 재활용 전략
초록
본 논문은 사전 확률 정보가 부족한 소셜 네트워크에서 마케팅 예산을 효율적으로 사용하기 위해, 여러 차례에 걸쳐 시드 노드를 선택·실행하고 사용자 피드백을 통해 영향 확률을 학습하는 온라인 영향력 최대화(OIM) 프레임워크를 제안한다. 탐색·활용(Explore‑Exploit) 전략과 기존 IM 알고리즘을 그대로 활용할 수 있는 증분 샘플 재사용 기법을 결합해, 부분 정보 상황에서도 전통적인 오프라인 IM 방법보다 높은 확산 효과를 달성한다.
상세 분석
이 논문은 기존 영향력 최대화(IM) 연구가 전제하는 “모든 간선의 전이 확률 p_ij가 사전에 알려져 있다”는 가정을 완화한다는 점에서 학문적·실무적 의의가 크다. 저자들은 영향 확률이 불확실한 상황을 ‘불확실 영향 그래프’라는 확률 분포 형태로 모델링하고, 이를 기반으로 다중 트라이얼(Trial) 방식을 도입한다. 각 트라이얼은 (1) 시드 선택 단계와 (2) 실제 광고·전파 단계로 구성되며, 피드백을 통해 베타 분포의 성공·실패 횟수(h_ij, m_ij)를 업데이트한다.
시드 선택 단계에서는 두 가지 전략을 교차한다. ‘Exploit’은 현재 추정된 확률값을 이용해 기존 IM 알고리즘(CELF, TIM+, 등)을 그대로 적용해 기대 확산을 최대화한다. ‘Explore’는 각 간선의 베타 분포에 대한 신뢰 구간(Upper Confidence Bound)을 활용해 불확실성이 큰 노드를 우선 선택함으로써 학습 효율을 높인다. 이 탐색·활용 전환은 ε‑greedy와 CUCB(Combinatorial UCB) 아이디어를 차용했지만, 광고 예산 제한과 중복 활성화 문제를 고려해 맞춤형으로 설계되었다.
핵심 공헌은 샘플 기반 IM 알고리즘의 연산 비용을 크게 줄이는 ‘증분 알고리즘’이다. TIM+와 같은 역방향 도달 집합(RR-set) 샘플링은 전체 그래프를 매 트라이얼마다 다시 샘플링하면 99% 이상의 시간 소모가 발생한다. 저자들은 피드백이 실제로 영향을 미치는 서브그래프가 전체 그래프에 비해 매우 작다는 점을 이용해, 이전 트라이얼에서 생성된 RR-set을 재활용할 수 있는 조건을 이론적으로 분석한다. 구체적으로, 간선 확률이 업데이트될 때 해당 간선을 포함하는 RR-set만을 재생성하고, 나머지는 그대로 유지한다. 이를 위해 간선‑RR‑set 역인덱스를 구축하고, 업데이트 시 효율적인 삭제·삽입 연산을 수행한다. 결과적으로 샘플 재사용률이 70% 이상에 달해 전체 실행 시간이 크게 단축된다.
학습 메커니즘은 두 가지 버전으로 제시된다. ‘Local Update’는 개별 간선의 성공·실패 횟수를 베타 분포 파라미터(α,β)로 직접 갱신해 세밀한 확률 추정을 가능하게 한다. ‘Global Update’는 전체 그래프에 대한 사전 베타 파라미터를 한 번에 조정해 계산량을 감소시키지만, 세부적인 변동을 놓칠 위험이 있다. 실험에서는 두 방법을 모두 적용했을 때, 특히 초기 트라이얼에서 ‘Explore’ 비중을 높이면 빠른 수렴과 높은 최종 확산을 보였다.
전체 실험은 실세계 소셜 네트워크(예: Facebook, Twitter)와 합성 그래프에서 수행됐으며, 제안된 OIM 프레임워크가 기존 오프라인 IM 알고리즘을 그대로 적용했을 때보다 평균 12%~18% 높은 활성화 수를 달성했다. 또한 증분 샘플 재사용 기법은 메모리 사용량을 30% 이하로 유지하면서도 실행 시간을 2배 이상 가속화했다.
결과적으로 이 논문은 (1) 불완전한 확률 정보 하에서도 효과적인 마케팅 시드 선정이 가능함을, (2) 기존 IM 알고리즘을 그대로 활용하면서도 온라인 학습을 결합할 수 있음을, (3) 샘플 재사용을 통한 연산 효율성을 입증함을 보여준다. 향후 연구는 다중 제품·다중 목표 상황, 그리고 동적 네트워크 변화에 대한 적응형 탐색·활용 정책 설계로 확장될 수 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기