미분 가능 게임 메커니즘: 잠재력과 해밀턴 구조
본 논문은 다중 손실이 상호 작용하는 차별화 가능한 게임에서의 학습 역학을 분석한다. 게임의 야코비안을 대칭·반대칭 두 성분으로 분해해 잠재력 게임과 해밀턴 게임으로 구분하고, 이를 기반으로 안정적인 고정점을 찾는 Symplectic Gradient Adjustment(SGA) 알고리즘을 제안한다. SGA는 잠재력·해밀턴 게임에서 수렴을 보장하며, 일반 게임에서도 안정적인 고정점에 국한된 수렴성을 제공한다. 실험 결과는 GAN 훈련에서 기존 방…
저자: Alistair Letcher, David Balduzzi, Sebastien Racaniere
**1. 서론 및 배경**
딥러닝에서 경사 하강법은 단일 목적함수 최적화에 대한 강력한 수렴 보장을 제공한다. 그러나 GAN, 다중 목표 강화학습, 호기심 기반 탐색 등 여러 손실이 동시에 존재하는 현대 모델에서는 이러한 보장이 무너지며, 학습이 순환하거나 발산하는 현상이 빈번히 관찰된다. 기존 이론은 주로 두 플레이어 제로섬 게임이나 잠재력 게임에 국한돼 일반 n‑플레이어 비선형 게임을 다루기에 한계가 있다. 저자는 이러한 격차를 메우기 위해 게임의 2차 구조, 즉 야코비안의 대칭·반대칭 성분을 분석한다.
**2. 미분 가능 게임 정의**
플레이어 집합
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기