자원 제한 환경을 위한 하이퍼파라미터 최적화, 골든 이글·유전 알고리즘 하이브리드 GEGO
초록
본 논문은 골든 이글 최적화(GEO)의 사냥‑이동 메커니즘에 선택·교차·돌연변이 연산을 직접 삽입한 하이브리드 메타휴리스틱 GEGO를 제안한다. 정기적인 유전 연산을 통해 인구 다양성을 유지하면서 GEO의 탐색 능력을 보존한다. CEC2017 벤치마크와 MNIST 신경망 하이퍼파라미터 튜닝 실험에서 기존 GEO, GA 및 다수의 고전 메타휴리스틱 대비 우수한 해 품질과 안정성을 보였으며, 제한된 연산 자원 하에서도 효율적인 탐색이 가능함을 입증한다.
상세 분석
GEGO는 기존 골든 이글 최적화(GEO)의 핵심인 공격벡터와 순항벡터 기반 위치 업데이트를 유지하면서, 일정 주기마다 전체 개체를 연속형 좌표에서 이진 혹은 실수형 염색체 형태로 인코딩한다. 이후 전통적인 유전 알고리즘(GA)의 선택·교차·돌연변이 연산을 적용해 새로운 후보 해를 생성하고, 이 후보가 부모보다 적합도가 우수하면 개체를 교체한다. 이 과정은 GEO의 탐색 흐름을 중단하지 않고, 오히려 탐색 후반부에 흔히 발생하는 다양성 감소와 조기 수렴 문제를 완화한다.
알고리즘 설계에서 중요한 두 파라미터는 (1) 유전 연산을 수행하는 주기(Iteration Interval)와 (2) 교차·돌연변이 확률이다. 논문에서는 실험적으로 1020% 주기의 간격과 0.70.9의 교차 확률, 0.01~0.05의 돌연변이 확률을 사용했으며, 이는 탐색 초기에는 GEO의 공격·순항 움직임이 주도적으로 전역 탐색을 수행하고, 중·후반부에 GA 연산이 다양성을 재주입하도록 설계되었다.
성능 평가에서는 CEC2017의 30차원·50차원 문제를 포함한 단일극점, 다중극점, 복합 함수 30개에 대해 30회 독립 실행을 수행하였다. 결과는 평균 최적값, 표준편차, 성공률(최적값 이하 도달 비율) 측면에서 GEGO가 순수 GEO와 순수 GA보다 모두 우수했으며, 특히 다중극점 함수에서 조기 수렴을 방지하고 전역 최적에 근접하는 경향이 두드러졌다.
하이퍼파라미터 튜닝 실험에서는 MNIST 데이터에 대한 다층 퍼셉트론(MLP)과 간단한 CNN의 학습률, 배치 크기, 은닉층 수, 활성화 함수 등을 탐색 변수로 설정하였다. 제한된 평가 횟수(총 200번 함수 평가) 내에서 GEGO는 평균 정확도 98.4%를 달성했으며, GEO와 GA는 각각 97.6%, 97.2%에 머물렀다. 또한 학습 곡선의 변동성이 낮아 수렴 안정성이 향상된 점도 강조된다.
이론적 관점에서 GEGO는 스와밍 기반 탐색과 진화 기반 다양성 유지라는 두 상반된 메커니즘을 “동시적 통합”이라는 형태로 구현한다는 점에서 의미가 크다. 기존 하이브리드 방식은 GEO와 GA를 별도의 단계(예: GEO 후 GA)로 연결하거나 파라미터 교환만을 수행했지만, GEGO는 동일 반복 내에서 연속적인 위치 업데이트와 유전 연산을 교차 적용한다. 이는 알고리즘 복잡도는 약간 증가하지만, 메모리 사용량은 기존 GEO와 동일하게 유지되며, 연산 비용도 교차·돌연변이 연산이 비교적 가벼워 제한된 자원 환경에 적합하다.
한계점으로는 (1) 유전 연산 적용 시 인코딩·디코딩 오버헤드가 존재하고, (2) 파라미터(주기, 교차·돌연변이 확률) 튜닝이 필요하다는 점이다. 또한 실험에 사용된 벤치마크와 MNIST는 비교적 규모가 작아, 대규모 딥러닝 모델(예: ResNet, Transformer)이나 고차원 하이퍼파라미터 공간에 대한 일반화 검증이 부족하다. 향후 연구에서는 적응형 주기 조정, 다중 목표 최적화, 그리고 클라우드·엣지 환경에서의 실시간 적용 가능성을 탐색할 필요가 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기