동적 가중치 설계로 가속하는 방향성 분산 학습 프레임워크
초록
본 논문은 에이전트 간 메시지 교환에 사용되는 간선 가중치를 데이터에 의존적으로 동적으로 조정함으로써 방향성 그래프 위에서의 분산 최적화 속도를 크게 향상시키는 D³GD(Dynamic Directed Decentralized Gradient) 알고리즘을 제안한다. 새로운 비용‑to‑go 함수 기반 설계 함수를 도출하고, 완전한 분산 구현을 통해 각 에이전트가 이웃 정보만으로 가중치를 업데이트하도록 하였다. 실험 결과, 기존 Di‑DGD 대비 30‑40% 빠른 수렴을 보이며, 학습된 가중치는 데이터 유사도에 맞게 적응한다.
상세 분석
이 논문은 기존의 방향성 분산 경사 하강법(Di‑DGD)이 정적인 가중치 행렬 A에 의존해 수렴 속도가 그래프의 스펙트럴 갭 ρ_A와 데이터 이질성 ς에 크게 좌우된다는 점을 정확히 짚어낸다. 이를 개선하기 위해 저자들은 비용‑to‑go 라플라시안 형태의 함수 L_k를 정의하고, L_{k+1}을 최소화하도록 설계 함수 J_k(A;Θ_k)를 도출한다. J_k는 현재 파라미터 Θ_k와 로컬 그래디언트 ∇f_i(θ_k^i) 사이의 유사성을 반영하며, 가중치 행렬 A를 조정함으로써 다음 단계에서의 평균 파라미터 편차와 그래디언트 정규화 오차를 동시에 감소시킨다.
핵심 아이디어는 두 가지 시간 스케일을 도입하는 것이다. (1) 가중치 행렬 A_k는 느린 시간 스케일(η_k)로 업데이트되어 강연결성 및 비가역성 가정(Assumption 2.1)을 유지한다. (2) Di‑DGD의 기본 업데이트(θ, y)와는 별개로, 각 에이전트는 자신의 행 a_k^i를 좌표별 경사 하강법으로 최적화한다. 이때 필요한 전역 정보(π_A, ∇F 등)는 동적 합의 트래커 z_k와 q_k를 통해 근사한다. 트래커는 기존 동적 합의 알고리즘
댓글 및 학술 토론
Loading comments...
의견 남기기