대적적 영향력 최대화와 최소 최대 의사후회 분석

본 논문은 고정된 그래프 위에서 전염 모델을 대적적 환경으로 설정하고, 매 라운드마다 시드 노드를 선택하는 온라인 게임을 정의한다. 플레이어와 적대적 adversary 사이의 최소-최대 의사후회(pseudo‑regret)를 분석하여, 무방향·유방향 그래프에서 상한과 하한을 제시한다. 특히 완전 그래프에 대해 최소-최대 의사후회의 정확한 차수를 구하고, 다중 시드 확장을 위한 온라인 그리디 알고리즘을 제안한다.

저자: Justin Khim, Varun Jog, Po-Ling Loh

본 논문은 “대적적 영향력 최대화(Adversarial Influence Maximization)”라는 새로운 문제 설정을 제안한다. 기존 연구는 독립적 전염 모델(Independent Cascade, Linear Threshold) 등에서 사전 확률을 가정하고, 그 확률에 따라 전염이 진행되는 스토캐스틱 프로세스를 분석했다. 그러나 실제 환경에서는 전염 메커니즘이 알려지지 않거나, 전염 경로가 라운드마다 크게 변동할 수 있다. 이를 반영하기 위해 저자들은 다음과 같은 게임 이론적 모델을 만든다. 1. **문제 정의** - 고정된 그래프 G=(V,E) (무방향 혹은 유방향)와 시드 크기 k가 주어진다. - T 라운드 동안 플레이어는 매 라운드 시드 집합 S_t⊆V, |S_t|=k 를 선택한다. - 동시에 적대적 adversary는 엣지 집합 A_t⊆E 를 “열어” 전염이 해당 엣지를 통해서만 퍼질 수 있게 만든다. - 전염은 시드에서 시작해 A_t에 포함된 엣지를 따라 도달 가능한 모든 노드에 전파된다. - 플레이어는 각 라운드에서 f(A_t,S_t) = (전염된 노드 수)/|V| 를 관측한다. 관측 가능한 엣지는 시드와 인접한 부분만 제한적으로 제공된다. 2. **전략 클래스** - 적은 **oblivious** 전략을 사용한다: 라운드 0에 전체 전략 A=(A_1,…,A_T) 를 미리 정하고, 플레이어의 행동에 의존하지 않는다. - 플레이어는 이전 라운드까지 관측한 엣지 상태 I_{t-1} 를 기반으로 S_t 를 선택한다. 이는 온라인 학습(멀티-암드 밴딧)과 동일한 정보 제한을 갖는다. 3. **후회 정의** - **실제 후회** R_T(A,S) = Σ_t f(A_t,S^*) – Σ_t f(A_t,S_t) 여기서 S^*는 모든 라운드에 대해 동일하게 고정된 최적 시드 집합이다. - **의사후회(pseudo‑regret)** \bar R_T(A,S) = max_{|S|=k} E_{A,S}

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기