가중 L2와 강인 Kullback‑Leibler 추정법

본 논문은 파라메트릭 밀도 모형의 파라미터를 추정하기 위한 두 가지 새로운 강인 방법을 제안한다. 첫 번째는 가중 L2 거리 최소화(minimum weighted L2)이며, 두 번째는 경험적 Kullback‑Leibler 거리의 강인 변형(robust Kullback‑Leibler)이다. 두 방법 모두 영향함수와 점근적 분산을 유도하고, 정규 모형을 예시로 효율성과 강인성을 비교한다.

저자: Nils Lid Hjort

본 논문은 파라메트릭 밀도 모형의 파라미터 추정을 위한 두 가지 새로운 강인 추정법을 제시한다. 첫 번째는 “minimum weighted L2” 방법으로, 가중된 제곱오차 ‖f_θ−f‖²_w 를 최소화한다. 구체적으로, 적분 ∫ w f_θ²dx−2n⁻¹∑ w(x_i)f_θ(x_i) 를 최소화하는 θ̂를 정의하고, 이를 1차 최적조건 V_n(θ)=∫ w f_θ u_θ (dF_n−f_θdx)=0 로 변형한다. 여기서 u_θ는 로그밀도의 점수함수이며, V_n(θ)=0 은 비모수적 경험분포와 파라메트릭 밀도 사이의 가중 적분을 일치시키는 의미를 가진다. 영향함수 I(f,x)=J^{-1}{w(x)f_θ0(x)u_θ0(x)−ξ₀} 를 도출하고, J와 ξ₀를 각각 J=∫ w f_θ0² u_θ0 u_θ0ᵀdx−∫ w(f_θ0² u_θ0 u_θ0ᵀ+f_θ0 u_θ0^{*}) (f−f_θ0)dx, ξ₀=∫ w f_θ0 f u_θ0 dx 로 정의한다. I는 일반적으로 유계이며, 극단값에 대해 0으로 수렴하는 redescending 특성을 보여 강인성을 확보한다. 점근적 분포는 √n(θ̂−θ₀) → N(0, J^{-1}MJ^{-1}) 로, M=Var_f

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기