강화학습 기반 알고리즘과 하이퍼파라미터 동시 선택
본 논문은 알고리즘 선택과 하이퍼파라미터 최적화를 동시에 수행하기 위해 문제를 다중 팔 밴딧(MAB)으로 변환한다. 각 알고리즘을 하나의 팔로 보고, 일정 시간 동안 해당 알고리즘의 하이퍼파라미터 탐색을 수행하도록 하며, ε‑greedy, UCB1, Softmax와 같은 MAB 전략을 적용한다. 제안된 MASSAH 프레임워크는 Auto‑WEKA(SMAC 기반)와 비교했을 때 대부분의 데이터셋에서 더 높은 정확도를 달성하거나 동등한 성능을 보였다…
저자: Valeria Efimova, Andrey Filchenkov, Anatoly Shalyto
**1. 서론 및 연구 배경**
머신러닝에서 데이터셋마다 최적의 학습 알고리즘과 그 하이퍼파라미터가 다르기 때문에, 알고리즘 선택과 하이퍼파라미터 튜닝을 동시에 자동화하는 것이 중요한 과제로 떠올랐다. 기존 연구는 두 문제를 별도로 해결하거나, 메타‑학습을 통해 사전 학습된 메타‑특징을 이용해 알고리즘을 선택하고, 이후 별도의 최적화 기법으로 하이퍼파라미터를 탐색하는 방식을 사용했다. 그러나 이러한 접근은 전체 탐색 비용이 크게 늘어나거나, 메타‑특징이 새로운 데이터셋에 일반화되지 못하는 한계가 있다. Auto‑WEKA는 SMAC 기반의 순차적 모델 기반 최적화(SMAC)와 함께 알고리즘 포트폴리오 전체를 동시에 탐색하지만, 시간 예산이 제한될 경우 비효율적인 탐색이 발생한다.
**2. 문제 정의**
논문은 다음과 같은 수학적 모델을 제시한다. 알고리즘 집합 A={A₁,…,A_k}와 각 알고리즘에 대응하는 하이퍼파라미터 공간 Λ_i가 주어질 때, 전체 예산 T를 여러 구간 t₁,…,t_m으로 나누어 각 구간마다 하나의 알고리즘에 대해 하이퍼파라미터 탐색을 수행한다. 목표는
\
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기