모델 오류 가정 하에서 정확한 베이지안 추정
본 논문은 ABC(Approximate Bayesian Computation)가 모델에 균일한 가산 오류가 존재한다는 가정 하에 충분한 요약통계량을 사용할 경우 정확한 사후분포를 제공한다는 이론적 근거를 제시한다. 0‑1 수용 기준을 일반적인 확률적 수용 함수로 확장함으로써 오류 분포를 자유롭게 지정할 수 있으며, 이를 통해 기존 ABC 적용에서 발생한 근사오차를 명시적으로 해석하고 향후 거리 측도와 허용오차 선택에 대한 지침을 제공한다. 또한…
저자: Richard D. Wilkinson
이 논문은 Approximate Bayesian Computation(ABC) 혹은 likelihood‑free inference 알고리즘이 모델에 가산 오류가 존재한다는 가정 하에 충분한 요약통계량을 사용할 경우 정확한 사후분포를 제공한다는 새로운 해석을 제시한다. 먼저 저자는 전통적인 ABC 거부 알고리즘을 소개하고, 고차원 데이터를 요약통계량 S(·)와 거리 함수 ρ(·,·)를 통해 저차원으로 압축하는 과정에서 발생하는 두 단계의 근사(요약통계와 허용오차)를 명시한다.
핵심 아이디어는 관측 데이터 D를 “최적 입력 ˆθ에 대한 모델 출력 η(ˆθ)와 독립적인 오류 ε”의 합으로 보는 모델 오류 프레임워크이다(식 1). 여기서 ε는 측정오차, 모델 자체의 불완전성, 혹은 두 가지의 결합을 나타내는 확률변수이며, 그 밀도 π_ε(·)는 임의의 형태를 가질 수 있다.
이 가정을 바탕으로 저자는 확률적 거부 알고리즘(Algorithm B)을 정의한다. 단계는 (1) 사전 π(θ)에서 θ를 샘플링, (2) 시뮬레이터 η(θ)로부터 X를 생성, (3) ε의 밀도에 비례하는 확률 π_ε(D−X)/c 로 θ를 수용한다. 여기서 c는 확률이 1을 초과하지 않도록 정규화 상수이다. 정리 1은 이 알고리즘이 정확히 π(ˆθ|D) 즉, 오류 모델을 포함한 사후분포에서 샘플을 추출한다는 것을 증명한다. 따라서 ABC는 “잘못된 모델(오류가 포함된 모델)”에 대해 정확한 베이지안 추론을 수행한다는 결론에 도달한다.
이론적 결과를 구체화하기 위해 두 가지 오류 분포를 적용한 예시를 제시한다. 첫 번째는 균일분포 ε∼U
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기