도메인 적응을 위한 불일치 거리와 학습 경계

본 논문은 소스와 타깃 데이터 분포가 다를 때 모델을 효과적으로 전이시키기 위해 새로운 **불일치 거리(discrepancy distance)** 를 정의하고, 이를 Rademacher 복잡도와 결합한 일반화 경계와 알고리즘을 제시한다. 0‑1 손실뿐 아니라 회귀 손실까지 포괄하는 이 거리의 경험적 추정법을 제시하고, SVM·커널 릿지 회귀 등 정규화 기반 학습기에 적용한 적응 경계를 도출한다. 또한 불일치 거리를 최소화하는 LP와 SDP 기반…

저자: Yishay Mansour, Mehryar Mohri, Afshin Rostamizadeh

도메인 적응을 위한 불일치 거리와 학습 경계
**1. 서론** 도메인 적응은 학습에 사용되는 소스 데이터와 실제 테스트에 사용되는 타깃 데이터의 분포가 다를 때, 소스 라벨을 활용해 타깃 성능을 높이는 문제이다. 기존 연구(Ben‑David 등, 2007)는 0‑1 손실에 특화된 d_A 거리를 도입했지만, 회귀나 다른 손실 함수에 적용하기엔 한계가 있었다. 본 논문은 이러한 한계를 극복하고자 **불일치 거리(discrepancy distance)** 를 정의하고, 이를 기반으로 일반화 경계와 알고리즘을 전개한다. **2. 사전 지식** 학습 설정은 입력 공간 X, 라벨 공간 Y(분류는 {0,1}, 회귀는 ℝ)이며, 소스 분포 Q와 타깃 분포 P가 존재한다. 라벨링 함수 f_Q와 f_P가 다를 수 있으나 차이가 작아야 적응이 가능하다. 또한 Rademacher 복잡도 𝔅_R_S(H)를 도입해 데이터 의존적 복잡도 측정을 준비한다. **3. 불일치 거리 정의 및 성질** 불일치 거리는 손실 함수 L에 대해  disc_L(Q₁,Q₂)=max_{h,h′∈H}

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기