커널 학습을 위한 새로운 일반화 경계

본 논문은 커널 학습 문제에 대한 새로운 일반화 경계들을 제시한다. 특히 p개의 기본 커널을 convex하게 결합한 경우 로그(p) 의 의존성을 보이며, L₂ 정규화된 선형 결합에서는 p^{1/4} 의 의존성만을 갖는다. 이는 기존의 선형 혹은 다항 의존성보다 훨씬 우수한 결과이다.

저자: Corinna Cortes, Mehryar Mohri, Afshin Rostamizadeh

본 논문은 커널 학습에서 핵심적인 문제인 “어떤 커널을 선택하고 어떻게 결합할 것인가”에 대한 이론적 이해를 심화시키고자 한다. 이를 위해 저자들은 두 종류의 가설 집합을 정의한다. 첫 번째는 비음수 가중치 μₖ가 합계 1을 만족하는 convex 조합 형태(Hₚ)이며, 두 번째는 동일한 조합에 대해 μ벡터에 L₂ 정규화(∑ₖ μₖ²=1)를 부과한 형태(H′ₚ)이다. 두 집합 모두 마진 제약 αᵀKα ≤ 1/ρ² 를 포함한다. 연구는 라데마허 복잡도라는 도구를 사용한다. 라데마허 복잡도는 가설 집합의 “표현력”을 측정하는 지표로, 복잡도가 낮을수록 일반화 능력이 좋다는 것이 알려져 있다. 저자들은 임의의 샘플 S (크기 m) 에 대해 R̂_S(Hₚ) 와 R̂_S(H′ₚ) 를 상한한다. 핵심 아이디어는 Hölder 부등식과 Jensen 부등식을 이용해 w와 Φ(·) 를 분리하고, 각 항을 개별적으로 제한하는 것이다. Hₚ에 대해서는 임의의 짝수 정수 r>0 를 도입하고, τ 라는 p차원 벡터를 τₖ = p^{1/r}·Tr

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기