복잡 최적화에서 효과적인 대리학습을 위한 PTME 평가 프레임워크
초록
본 논문은 대리 모델의 품질을 정밀도, 시간, 메모리, 에너지(PTME) 네 가지 축으로 종합 평가하는 PTME 방법론을 제안하고, 유럽 도시 교통신호 최적화 사례에 적용해 샘플링 방식·데이터 규모·자원 소비 간의 트레이드오프를 실증한다.
상세 분석
PTME는 대리 학습 연구에서 흔히 간과되는 물리적 비용을 정량화함으로써, 단순히 예측 오차만 최소화하는 기존 접근법의 한계를 보완한다. 정밀도는 MAPE·RMSE와 같은 절대·상대 오차와 Kendall’s τ를 이용한 순위 일치도로 측정하며, 이는 메타휴리스틱이 후보 해를 올바르게 선별할 수 있는지를 직접 평가한다. 시간은 학습 단계와 추론 단계로 구분해 각각의 CPU 사용 시간과 초당 평가 가능한 후보 수를 기록한다. 메모리는 모델 파라미터 수·피크 메모리·활성화 맵을 포함해 딥러닝 특유의 메모리 풋프린트를 측정하고, 에너지는 Intel RAPL 기반의 전력 측정값을 통해 훈련·추론 시 소비 전력을 직접 기록한다. 이러한 네 축을 동시에 수집하기 위해 알고리즘 1과 같은 표준화된 측정 프로토콜을 제시했으며, 재현성을 위해 동일한 테스트 셋을 유지하고, 훈련·추론을 다중 반복(T=10) 수행한다.
사례 연구로 선택된 교통신호 최적화는 SUMO 시뮬레이터 기반의 고비용 평가 함수를 갖는다. 입력 차원은 도시별로 190~378에 이르며, 다중 목표(도착 차량 수, 지연 시간, 녹색 신호 비율 등)를 단일 가중합으로 통합한다. 대리 모델은 입력 차원에 비례하는 두 개의 은닉층을 가진 DNN을 사용하고, ReLU 활성화·Adam 옵티마이저·학습률 1e‑4·배치 32·에포크 100이라는 표준 설정을 적용했다.
샘플링 전략은 무작위 균등(URS)과 라틴 하이퍼큐브(LHS) 두 가지를 비교했으며, LHS가 고차원 공간을 보다 균등하게 커버해 훈련 데이터 효율성을 높이는 것으로 나타났다. 실험 결과, LHS 기반 모델은 MAPE와 RMSE에서 평균 12 %18 % 개선을 보였으며, Kendall’s τ도 URS 대비 0.050.08 상승했다. 그러나 LHS는 샘플 생성 시 추가 연산이 필요해 훈련 시간과 에너지 소비가 약 7 % 증가했지만, 추론 단계에서는 차이가 미미했다. 데이터 규모를 5k, 10k, 20k로 확대했을 때 정밀도는 점진적으로 향상되었지만, 메모리 사용량과 훈련 전력은 선형적으로 증가해, 실시간 최적화 환경에서는 10k 정도가 비용 효율적인 절충점으로 제시된다.
또한, PTME 기반 평가를 통해 구축된 대리 모델을 메타휴리스틱(예: GA, PSO)과 결합했을 때, 전체 최적화 시간은 원시 시뮬레이션 대비 65 %~78 % 단축되었으며, 최종 솔루션 품질은 3 %~5 % 수준으로 유지되었다. 이는 PTME가 단순히 모델 정확도만이 아니라, 실제 적용 시 요구되는 자원 제약을 고려한 설계·선택을 가능하게 함을 입증한다. 마지막으로, PTME 프레임워크는 다른 분야(전력망, 물류, 바이오시뮬레이션 등)에도 그대로 적용 가능하도록 일반화된 절차와 측정 지표를 제공한다.
댓글 및 학술 토론
Loading comments...
의견 남기기