그래프 기반 다중 클래스 반감자 라우 에너지 최소화 학습

본 논문은 그래프 위에 정의된 Ginzburg‑Landau(GL) 에너지 함수를 다중 클래스 분류에 적용하기 위해 새로운 퍼리오딕 포텐셜과 클래스 간 차이를 균등하게 측정하는 ρ 함수를 도입한다. 이를 통해 반감자‑라우(ε) 파라미터가 조절하는 부드러운 전이와 데이터 충실도 항을 결합한 반감자‑라우 기반 반감자-라우 모델을 제안하고, 그래디언트 하강과 그리디 클래스 재배정을 이용한 효율적인 최적화 알고리즘을 설계하였다. 실험 결과는 MNIST,…

저자: Cristina Garcia-Cardona, Arjuna Flenner, Allon G. Percus

그래프 기반 다중 클래스 반감자 라우 에너지 최소화 학습
본 논문은 그래프 기반 반감자‑라우(Ginzburg‑Landau, GL) 모델을 다중 클래스 반감자‑라우(MGL)로 확장하여 반감자‑라우 기반 반감자‑라우(SSL) 프레임워크를 제시한다. 1. **배경 및 동기** - 기존 이진 분류를 위한 GL 모델은 스무딩 항 ‖∇u‖²와 이중 우물 포텐셜 Φ(u)=¼(u²−1)²로 구성되어, 부드러운 전이와 두 개의 명확한 라벨(±1)을 동시에 유도한다. - 다중 클래스 문제를 단순히 여러 이진 분류로 나누면 계산량이 급증하고, 클래스 수가 늘어날수록 성능이 저하된다. 따라서 라벨 순서에 독립적인 하나의 에너지 함수가 필요하다. 2. **그래프 구축** - 데이터 포인트를 정점 V에 매핑하고, N‑최근접 이웃을 이용해 무방향 가중 그래프 W를 만든다. - 가중치는 Zelnik‑Manor‑Perona 방식 w_{ij}=exp(−‖x_i−x_j‖²/(τ(x_i)τ(x_j))) 로 정의하고, 대칭성을 확보하기 위해 양방향 이웃 관계를 적용한다. - 정점 차수 d_i=∑_j w_{ij} 로 대각 행렬 D를 만들고, 정규화 라플라시안 L_s=I−D^{-1/2}WD^{-1/2} 혹은 무작위 워크 라플라시안 L_w=I−D^{-1}W 를 사용한다. 3. **다중 클래스 포텐셜** - Li‑Kim의 퍼리오딕 포텐셜 Φ_M(u)=½{u}²({u}−1)² 를 채택한다. 여기서 {u}=u−⌊u⌋ 는 소수부이며, 모든 정수 라벨 주변에 동일한 최소점을 만든다. - 이 포텐셜은 라벨 순서와 무관하게 다중 클래스 클러스터링을 유도한다. 4. **클래스 간 차이 함수 ρ** - 기존 라플라시안 차이 (u_i−u_j)² 는 라벨 차이가 클수록 큰 비용을 부과한다. 이는 다중 클래스에서 인위적인 비대칭을 만든다. - 이를 해결하기 위해 ˆr(x)=|½−{x}| 로 정의된 “절반 정수 거리”를 도입하고, ρ(u_i,u_j) 를 다음과 같이 정의한다. - y_i≠y_j (다른 클래스) → ρ=ˆr(u_i)+ˆr(u_j) - y_i=y_j (같은 클래스) → ρ=|ˆr(u_i)−ˆr(u_j)| - ρ는 트리 거리와 유사하게 작동해, 라벨 순서와 무관하게 인터페이스 비용을 동일하게 만든다. 5. **다중 클래스 GL 에너지** - 최종 에너지식은 E_MGL(u)= ε∑_{i,j} w_{ij}/√(d_i d_j)·ρ(u_i,u_j)² + (1/ε)∑_i {u_i}²({u_i}−1)² + ∑_i μ_i (u_i−\hat u_i)² 로 구성된다. - 첫 항은 ρ 기반 비선형 스무딩, 두 번째 항은 퍼리오딕 포텐셜, 세 번째 항은 알려진 라벨에 대한 데이터 충실도이다. 6. **최적화 알고리즘** - 명시적 시간 스텝 dt 로 그래디언트 하강을 수행한다. - ρ의 미분이 절반 정수에서 정의되지 않으므로, 라벨이 변할 경우 그리디 탐색을 수행한다. 구체적으로, 현재 소수부 {u_i} 를 유지하면서 주변 정점과의 ρ 기반 스무딩 비용을 최소화하는 정수 k∈

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기