무한 차원 가우시안 데이터에 대한 라플라스 학습 대규모 한계
초록
본 논문은 무한 차원의 힐베르트 공간에 정의된 가우시안 측도 위에서 라플라스 학습(반지도 학습)의 그래프 디리클레 에너지의 점별 수렴을 증명한다. 기존 유한 차원에서의 Lebesgue 밀도 기반 접근법을 대체하기 위해, 공분산 연산자의 고유값을 이용한 분수 노름과 평균 가중 정규화를 도입하고, 가우시안 측도의 카라만-마틴 공간에서의 미분 구조를 활용한다. 주요 결과는 적절한 매개변수(α,β)와 함수 정규성 가정 하에, 그래프 에너지가
(\frac12\int |D^{\beta}u(x)|_{X^{\beta-\alpha}}^{2},d\mu(x)) 로 수렴함을 보인다.
상세 분석
이 연구는 반지도 학습에서 라플라스 학습이 그래프 기반 디리클레 에너지를 최소화한다는 전제 하에, 데이터가 무한 차원의 힐베르트 공간 (X)에 가우시안 측도 (\mu)를 따라 독립적으로 샘플링된다는 설정을 채택한다. 유한 차원에서는 그래프 가중치를 (\varepsilon^{-d}) 로 정규화하고, 연속 한계에서 (\int |\nabla u|^{2}\rho^{2},dx) 형태의 Sobolev 반정규화가 등장한다. 그러나 무한 차원에서는 Lebesgue 측도가 존재하지 않으므로 밀도 (\rho) 를 정의할 수 없고, 기존 정규화는 의미를 상실한다. 저자들은 이를 해결하기 위해 두 가지 핵심 아이디어를 도입한다. 첫째, 커널 가중치 (W_{ij}= \eta\big(|x_i-x_j|{X^{\alpha}}/\varepsilon\big)) 에서 거리 계산에 사용되는 노름을 (\alpha) 로 조정한다. 여기서 (| \cdot |{X^{\alpha}}) 은 공분산 연산자 (C_{\mu}) 의 고유값 ({\lambda_i}) 을 이용해 정의된 분수 노름 (|x|_{X^{\alpha}}^{2}= \sum_i \lambda_i^{\alpha}\langle x,e_i\rangle^{2}) 이다. 둘째, 그래프 라플라시안의 스케일링을 (\varepsilon^{-2}) 로만 남기고, 각 정점의 평균 가중치 (d_i) 로 정규화한 형태
\
댓글 및 학술 토론
Loading comments...
의견 남기기