비독립 데이터에 대한 안정성 기반 일반화 경계
본 논문은 정적 ϕ‑mixing 및 β‑mixing 시퀀스로부터 추출된 표본에 대해 알고리즘 안정성을 이용한 일반화 경계를 제시한다. 기존의 i.i.d. 가정에 기반한 안정성 분석을 확장하여, 모든 안정한 학습 알고리즘에 적용 가능한 새로운 경계를 도출하고, 이를 서포트 벡터 회귀, 커널 릿지 회귀, 서포트 벡터 머신 등 커널 기반 정규화 방법에 구체적으로 적용한다.
저자: Mehryar Mohri, Afshin Rostamizadeh
**1. 서론 및 연구 동기**
학습 이론에서 일반화 경계는 보통 가설 클래스의 복잡도(VC 차원, 커버링 수, Rademacher 복잡도 등)를 기반으로 도출된다. 그러나 이러한 복잡도 기반 접근법은 학습 알고리즘이 어떤 특성을 갖는지 반영하지 못한다. 알고리즘 안정성은 “학습 데이터의 작은 변동이 출력 가설에 미치는 영향”을 정량화함으로써, 알고리즘 자체에 맞춘 더 촘촘한 일반화 경계를 제공한다. 기존 안정성 분석은 표본이 i.i.d.라는 가정에 크게 의존했으며, 실제 시계열, 금융 시세, 센서 데이터 등에서는 시간적 의존성이 존재한다. 본 논문은 이러한 비독립 데이터를 다루기 위해 **정적 ϕ‑mixing**과 **β‑mixing**이라는 두 가지 의존성 모델을 채택한다.
**2. 사전 지식 및 정의**
- **정적(stationary) 시퀀스**: 시점에 관계없이 동일한 확률분포를 갖는 시퀀스.
- **ϕ‑mixing 계수 ϕ(k)**와 **β‑mixing 계수 β(k)**: 각각 두 σ‑알제브라 사이의 조건부 확률 차이를 측정하며, k가 커질수록 0에 수렴한다. ϕ‑mixing은 β‑mixing보다 강한 조건이다.
- **알고리즘 β̂‑stability**: 두 학습 샘플 S와 S′가 하나의 표본만 다를 때, 모든 입력 z에 대해 손실 차이가 ≤ β̂ 인 경우.
**3. ϕ‑mixing에 대한 일반화 경계**
ϕ‑mixing 시퀀스에 대해 Kontorovich & Ramanan(2006)의 **일반화된 McDiarmid 부등식**을 적용한다. 이 부등식은 함수 Φ가 각 표본에 대해 L‑Lipschitz이면,
Pr
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기