효율적 전역 최적화의 수렴 속도와 기대 개선 알고리즘의 한계
본 논문은 기대 개선(EI) 기반 베이지안 최적화 알고리즘의 수렴 속도를 RKHS 관점에서 분석한다. 고정된 가우시안 프로세스 사전에서는 함수 매끄러움 정도 ν에 따라 최적 속도 O\*(n^{-(ν∧1)/d})를 보이며, 알고리즘을 약간 수정하면 O\*(n^{-ν/d})에 근접한 속도를 얻는다. 그러나 실제 적용에서는 사전 하이퍼파라미터를 데이터로부터 추정하는 경우 수렴이 보장되지 않을 수 있음을 보이고, 상수를 최소화하도록 설계한 새로운 추정…
저자: Adam D. Bull
본 논문은 “효율적 전역 최적화(efficient global optimization, EGO)”라는 문제를 수학적으로 정형화하고, 특히 기대 개선(Expected Improvement, EI) 기반 베이지안 최적화 알고리즘의 수렴 특성을 심도 있게 분석한다. 문제 설정은 컴퓨팅 비용이 높은 목적 함수 f: X→ℝ을 최소화하는 것으로, X는 ℝ^d의 콤팩트 집합이며 관측은 무노이즈이다. 이때 알고리즘이 선택하는 설계점 x_n과 현재 추정 최소점 x_n^*는 이전 관측에만 의존하도록 정의한다. 목표는 단순 후회 f(x_n^*) − min f를 가능한 빨리 0에 가깝게 만드는 것이다.
**1. 기대 개선 알고리즘과 가우시안 사전**
EI는 베이지안 최적화에서 가장 널리 쓰이는 획득 함수이다. 저자는 f를 평균 μ, 분산 σ², 상관 커널 K_θ를 갖는 정적 가우시안 프로세스(π)로 모델링한다. 여기서 θ는 길이‑스케일, ν는 커널 매끄러움 파라미터이며, K는 연속·적분 가능하고 푸리에 변환 b_K가 등방성·비증가인 등 여러 수학적 가정을 만족한다. 이러한 커널은 매트른(Matern) 계열과 가우시안(ν=∞) 커널을 포함한다.
**2. 고정 사전 하에서의 수렴 속도**
고정된 π에 대해, EI는 매 단계에서 기대 개선량 E
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기