대다수 곱분포에서 결정 트리의 PAC 학습 가능성 스무딩 분석
이 논문은 n 차원 하이퍼큐브 위의 결정 트리를 독립적인 무작위 라벨링 예제로부터 PAC‑학습하는 문제를 다룬다. 기존에는 균등 분포조차도 다항시간 알고리즘이 알려지지 않았지만, 저자는 비트 편향이
저자: Adam Tauman Kalai, Shang-Hua Teng
**1. 서론 및 배경**
PAC(Probably Approximately Correct) 학습 이론은 제한된 표본으로부터 목표 함수를 근사하는 알고리즘의 존재와 효율성을 연구한다. 결정 트리는 머신러닝에서 가장 널리 쓰이는 모델 중 하나이며, 이진 특성 공간 {0,1}ⁿ 위에 정의된다. 그러나 현재까지 다항 크기의 결정 트리를 균등 분포 혹은 일반적인 분포 하에서 다항시간에 학습한다는 확정적인 결과는 존재하지 않는다. 특히, 최악‑사례 분석에서는 NP‑hardness 결과가 존재해, 일반적인 경우에 대한 효율적 알고리즘이 존재하지 않을 가능성이 제기된다.
**2. 문제 정의**
논문은 다음과 같은 설정을 고려한다. 입력은 n 차원 이진 벡터 x ∈ {0,1}ⁿ, 출력은 목표 결정 트리 f(x) ∈ {0,1}. 학습자는 독립적인 표본 (x, f(x)) 을 제품분포 𝔻 = ∏_{i=1}^{n} Bernoulli(p_i) 으로부터 얻는다. 여기서 각 p_i 는 0과 1 사이의 편향이며, 본 논문은 두 가지 경우를 다룬다. (a) p_i 가
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기