베이지안 샘플 추론을 이용한 새로운 생성 모델
초록
본 논문은 베이지안 관점에서 샘플을 추정하는 과정을 반복적인 가우시안 사후 추론으로 구현한 생성 모델인 Bayesian Sample Inference(BSI)를 제안한다. 초기에는 매우 넓은 가우시안 신념으로 시작해, 예측 모델이 현재 신념을 기반으로 샘플을 추정하고, 그 추정값에 노이즈를 더해 관측을 만든 뒤 사후 업데이트를 수행한다. 이 과정을 정밀도가 충분히 높아질 때까지 반복한다. 저자는 ELBO를 유도하고, 중요도 샘플링을 통해 학습 손실의 분산을 감소시키는 방법을 제시한다. 또한 BSI가 기존 Bayesian Flow Networks(BFN)를 특수 경우로 포함하고, 확산 모델과의 관계를 분석한다. 실험 결과 ImageNet32에서 BFN과 Variational Diffusion Models(VDM)보다 샘플 품질이 우수하고, ImageNet64·32에서 로그우도는 동등함을 보인다.
상세 분석
본 연구는 “샘플 x는 고정되어 있지만 관측되지 않는다”는 베이지안 가정을 출발점으로 삼아, x에 대한 연속적인 가우시안 관측 y_i ~ N(x, α_i^{-1}) 를 통해 사후 분포 p(x|y_{1:i})를 갱신한다. 초기 신념 p(x)=N(μ_0, λ_0^{-1}I)는 데이터 전체를 포괄하도록 낮은 정밀도 λ_0를 갖는다. 핵심 아이디어는 실제 x를 직접 측정할 수 없으므로, 현재 신념 (μ_i, λ_i) 를 입력으로 하는 예측 모델 f_θ가 추정값 \hat{x}i = f_θ(μ_i, λ_i) 를 만든다. 이후 \hat{x}i에 정밀도 α{i+1}의 가우시안 노이즈를 더해 y{i+1}를 생성하고, Lemma 2.1에 따라 사후 μ_{i+1}, λ_{i+1}을 정확히 업데이트한다. 이 절차는 Algorithm 1에 정리되어 있으며, λ_i는 순전히 사전 정의된 스케줄에 따라 증가하므로 샘플링 단계 수와 정밀도 스케줄을 사전에 고정할 수 있다.
학습은 이 과정을 계층적 잠재 변수 모델로 해석해 ELBO를 도출한다. Theorem 3.1은 재구성 손실 L_R와 측정 손실 L_{kM}으로 ELBO를 분해하고, L_{kM}은 각 단계에서의 예측 오차 ‖x‑\hat{x}i‖²에 정밀도 α_i가 가중된 형태임을 보여준다. 연속적인 측정 단계가 무한히 미세해질 때(α_i→0, Σα_i=α_M) Theorem 3.2는 연속적인 정밀도 λ에 대한 기대값 형태의 손실 L{∞M}=α_M/2·E_{λ∼U(λ_0,λ_M)}
댓글 및 학술 토론
Loading comments...
의견 남기기