자율 적응형 확률 스카이라인 쿼리 처리 프레임워크
초록
본 논문은 엣지·클라우드 협업 환경에서 확률 스카이라인 쿼리(PSKY)의 필터링 임계값을 동적으로 조정하기 위해 연속형 마르코프 의사결정 과정(MDP)으로 모델링하고, Deep Deterministic Policy Gradient(DDPG) 기반 에이전트를 활용한 SA‑PSKY 프레임워크를 제안한다. 실험 결과, 통신 오버헤드 60 %·전체 응답 시간 40 %를 절감하면서 다양한 데이터 분포와 부하 변동에 강인한 성능을 보인다.
상세 분석
SA‑PSKY는 기존 정적 임계값 기반 분산 PSKY 처리 방식이 엣지 노드의 급격한 데이터 도착률 변동, 불확실성 분포 변화, 그리고 제한된 CPU·대역폭 자원에 적절히 대응하지 못한다는 문제점을 정확히 짚어낸다. 논문은 먼저 필터링 임계값 α를 연속적인 행동 변수로 정의하고, 시스템 상태 sₜ를 (데이터 도착률 λᵢ, 불확실성 분산 σᵢ, 현재 CPU 사용률, 네트워크 대역폭 B, 슬라이딩 윈도우 크기 N 등) 다차원 벡터로 표현한다. 이를 기반으로 MDP를 구성해 보상 함수 rₜ = –(w₁·T_comp + w₂·T_trans) 형태로 정의함으로써 계산 지연과 전송 지연을 동시에 최소화하도록 설계하였다.
DDPG 에이전트는 Actor‑Critic 구조를 채택해 연속 액션 스페이스에서 최적 정책 μ(s|θ)와 가치 함수 Q(s,a|ϕ)를 학습한다. 경험 재플레이 버퍼와 타깃 네트워크를 이용해 안정적인 학습을 보장하고, 탐색 단계에서는 Ornstein‑Uhlenbeck 잡음으로 부드러운 탐색을 수행한다. 특히, 논문은 DDPG가 기존 DQN 기반 이산 제어 방식에 비해 “양자화 오차”와 “차원 저주” 문제를 회피하면서도 미세한 α 조정이 가능한 점을 강조한다.
시스템 모델링 측면에서는 각 엣지 노드의 로컬 데이터셋 Dᵢ를 슬라이딩 윈도우 Wᵢ로 제한하고, 객체 수준의 확률 우위 P(u_A ≺ u_B) 를 인스턴스 레벨 지배 관계를 집계해 계산한다. 필터링 단계에서는 로컬 확률 P_local(u) 가 현재 임계값 αᵢ보다 크면 후보 집합 Sᵢ에 포함시켜 클라우드 브로커로 전송한다. 이때 전송량은 Φ(α) = Σ_i |Sᵢ| 로 표현되며, 전송량과 로컬 연산량 사이의 트레이드오프를 보상 함수에 직접 반영한다.
실험에서는 5~20개의 엣지 노드를 시뮬레이션하고, 데이터 도착률을 포아송·버스트형, 불확실성 분포를 정규·반정규·상관형 등으로 다양하게 설정하였다. 베이스라인으로는 고정 임계값(α=0.5), 히스테리시스 기반 적응, 그리고 라그랑지안 최적화 기반 이산 RL을 사용하였다. 결과는 SA‑PSKY가 평균 통신량을 60 % 감소시키고, 전체 지연을 40 % 단축했으며, 특히 급격한 부하 급증 상황에서도 정책이 빠르게 α를 낮추어 전송량을 억제하고, 부하 감소 시에는 α를 상승시켜 로컬 연산을 최소화하는 동적 균형을 유지함을 보여준다.
이와 같이 SA‑PSKY는 (1) 연속형 DRL을 통한 미세 조정, (2) 다목적 보상 설계, (3) 엣지·클라우드 협업 구조에 최적화된 MDP 모델링이라는 세 축을 결합해 기존 정적·이산 방식이 한계였던 복합 최적화 문제를 효과적으로 해결한다.
댓글 및 학술 토론
Loading comments...
의견 남기기