온라인 알고리즘 성능 측정법 비교: 두 서버 문제에 대한 실험적 고찰
본 논문은 세 점이 일직선상에 배치된 두 서버 문제를 실험대로 삼아, 경쟁분석, Max/Max 비율, 무작위 순서 비율, 전사분석(Bijective Analysis), 상대 최악 순서 분석(Relative Worst Order Analysis) 등 다섯 가지 성능 측정법을 적용한다. Greedy, Double Coverage(DC), Lazy Double Coverage(LDC) 알고리즘을 비교한 결과, 전사분석과 Max/Max 비율에서는 Gr…
저자: Joan Boyar, S, y Irani
본 논문은 온라인 알고리즘 평가에 널리 쓰이는 경쟁분석(Competitive Analysis)의 한계를 보완하고자, 다섯 가지 대안적 성능 측정법을 동일한 실험 문제에 적용해 비교한다. 실험 문제는 “베이비 서버 문제”라 명명된 2‑서버, 3‑점(line) 문제이며, 점 A‑B‑C가 왼쪽에서 오른쪽으로 순서대로 배치되고, A와 C에 초기 서버가 각각 놓여 있다. B와 C 사이의 거리 d는 정수이며 최소 2이다. 이 간단한 설정은 “탐욕성(greediness) vs 적응성(adaptability)”이라는 온라인 알고리즘의 핵심 딜레마를 충분히 드러낸다.
연구에 사용된 세 알고리즘은 Greedy, Double Coverage(DC), Lazy Double Coverage(LDC)이다. Greedy는 요청 지점에 가장 가까운 서버를 이동시켜 즉시 비용을 최소화한다. DC는 요청이 두 서버 사이에 있을 경우 두 서버를 동시에 같은 속도로 움직여 중간 지점에 도달하도록 하며, 요청이 한쪽에 몰려 있으면 가장 가까운 서버만 이동한다. LDC는 DC의 “lazy” 버전으로, 가상 서버를 이용해 DC의 움직임을 시뮬레이션하고 실제 이동은 하나의 서버에만 제한한다. LDC는 언제나 DC와 동등하거나 더 나은 비용을 보장한다는 “lazy observation”을 기반으로 한다.
다음은 논문에서 다룬 다섯 가지 성능 측정법이다.
1. **경쟁분석(Competitive Analysis)** – 모든 입력 I에 대해 A(I) ≤ c·Opt(I)+α 를 만족하는 최소 상수 c를 찾는다. 이는 최악 입력에 대한 비율을 측정한다.
2. **Max/Max 비율** – 입력 길이 n이 무한대로 갈 때, 알고리즘 A의 최악 비용 M(A)=lim sup_{t→∞} max_{|I|=t} A(I)/t와 Opt의 최악 비용 M(Opt)를 비교한다. 비율 wM(A)=M(A)/M(Opt) 로 표현한다.
3. **무작위 순서 비율(Random Order Ratio)** – 동일 멀티셋 I의 모든 순열을 균등히 섞어 기대 비용 Eσ
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기