동시연립회귀 모델을 위한 수정 AIC
초록
본 논문은 동시연립회귀(Seemingly Unrelated Regressions, SUR) 모델에 적용되는 AIC의 편향을 보정한 AICc를 제안한다. 표본 크기가 파라미터 수에 비해 작을 때 기존 AIC가 과도하게 복잡한 모델을 선택하는 문제를 해결하고, 시뮬레이션을 통해 AICc가 다른 선택 기준보다 더 정확한 모델 선택을 제공함을 보여준다.
상세 분석
동시연립회귀 모델은 여러 종속 변수들이 서로 상관된 오차항을 가질 때 효율적인 추정을 가능하게 하는 다변량 회귀 프레임워크이다. 기존의 AIC는 로그우도에 자유도(p)와 표본 크기(n)의 비율을 단순히 2p를 빼는 형태로 편향을 보정하지 않는다. 특히 SUR과 같이 파라미터 수가 많고 오차 공분산 행렬을 추정해야 하는 경우, n이 p에 비해 작아지면 AIC는 과도하게 복잡한 모델을 선호한다는 것이 알려져 있다. 논문은 이러한 문제를 해결하기 위해 AIC의 기대값을 2차 테일러 전개로 근사하고, 그 결과 얻어지는 편향 항을 명시적으로 계산한다. 핵심은 로그우도 함수의 2차 미분(피셔 정보 행렬)과 오차 공분산 행렬의 추정 불확실성을 결합해, 보정항을 (2p(p+1))/(n-p-1) 형태로 도출한다. 이는 기존 선형 회귀에서 사용되는 AICc와 구조적으로 유사하지만, SUR 특유의 공분산 파라미터까지 포함한다는 점에서 차별화된다. 또한, 보정식은 n>p+1 조건 하에서 정의되며, 실제 데이터에서는 이 조건을 만족하도록 모델 차원을 제한하거나 차원 축소 기법을 병행할 필요가 있다. 시뮬레이션에서는 다양한 n/p 비율, 오차 상관 구조, 그리고 모델 과소·과대 지정 상황을 설정해 AIC, BIC, HQIC와 비교하였다. 결과는 n/p가 5 이하인 경우 AICc가 선택 정확도에서 현저히 우수했으며, 특히 과대 지정 모델을 배제하고 진정한 모델을 찾는 확률이 20~30% 정도 상승했다. 반면 BIC는 보수적인 성향으로 과소 지정 위험이 있었고, HQIC는 중간 정도의 성능을 보였다. 따라서 AICc는 작은 표본 환경에서 SUR 모델 선택에 있어 실용적인 대안으로 자리매김한다.
댓글 및 학술 토론
Loading comments...
의견 남기기