전기차 충전 부하 예측 다중 모델 다중 스케일 비교 연구
초록
본 연구는 전기차 충전 수요를 예측하기 위해 ARIMA, XGBoost, GRU, LSTM, Transformer 다섯 가지 모델을 네 개의 실제 데이터셋에 적용하고, 짧게는 10분, 중간은 2시간, 길게는 1일 단위의 3가지 시간대와 충전소·지역·도시의 3가지 공간 집계 수준에서 성능을 비교하였다. 결과는 Transformer가 단기·지역·도시 수준에서 우수한 반면, GRU와 LSTM이 중·장기 예측에서 일관적으로 낮은 오류를 보였으며, ARIMA와 XGBoost는 제한된 상황에서만 경쟁력을 가졌다.
상세 분석
본 논문은 전기차(EV) 충전 부하 예측이라는 실용적 문제에 대해 체계적인 실험 설계를 제시한다. 먼저 네 개의 공개 데이터셋(Palo Alto, Boulder, Dundee, Perth)을 동일한 전처리 파이프라인에 적용해 10분 간격으로 에너지 소비를 집계하고, 시간대·공휴일·요일·월 등의 캘린더 특성을 추가한 뒤 z‑score 정규화하였다. 공간 차원에서는 개별 충전소, 지역(복수 충전소 집합), 도시 전체 세 수준으로 시계열을 구성했으며, 이는 실제 운영·계획 단계에서 요구되는 다양한 스케일을 반영한다.
예측 모델은 전통 통계 기법인 ARIMA와 머신러닝 기반 XGBoost, 그리고 딥러닝 구조인 GRU, LSTM, Transformer를 선택했다. ARIMA는 각 충전소별로 독립적으로 최적(p,d,q) 차수를 AIC 기반 제한 그리드 탐색으로 결정하고, 최근 2 weeks~2 years 정도의 데이터만 사용해 계산 비용을 절감하였다. 반면 XGBoost와 세 딥러닝 모델은 ‘멀티‑스테이션 학습’ 전략을 채택해 도시·시간 해상도별로 모든 충전소 데이터를 하나의 모델에 통합 학습시켰으며, 정류장·지역 식별자를 원‑핫 인코딩하고, 모든 시계열 특성을 동일하게 정규화하였다.
학습 과정에서 하이퍼파라미터는 사전 정의된 값으로 고정했으며, 과도한 튜닝을 피해 재현성을 확보했다. 딥러닝 모델은 64개의 은닉 유닛, Adam 옵티마이저(learning rate = 1e‑3), 배치 크기 2048, 최대 200 epoch(early stopping) 등 표준 구성을 사용했으며, GPU 가속을 통해 효율성을 높였다. 예측은 재귀적(walk‑forward) 방식으로 수행해 다단계 예측 시 누적 오차 영향을 평가했다.
성능 평가는 MAE와 RMSE 두 지표를 사용했으며, MAPE와 R²는 실제값이 0에 가까워 불안정하거나 해석이 어려워 제외하였다. 실험 결과, Transformer는 짧은 예측 구간(10‑30 분)에서 특히 지역·도시 수준에서 높은 정확도를 보였는데, 이는 자체‑어텐션 메커니즘이 짧은 시계열 내 복합적인 패턴을 병렬적으로 포착할 수 있기 때문이다. 그러나 데이터 특성에 따라 민감도가 커 일부 데이터셋에서는 과적합 현상이 나타났다.
GRU와 LSTM은 중·장기(2 시간‑5 일) 예측에서 일관적으로 가장 낮은 MAE·RMSE를 기록했으며, 특히 LSTM은 장기 의존성을 유지하는 메모리 셀 구조 덕분에 일일·주간·연간 주기성을 효과적으로 학습했다. GRU는 파라미터가 더 적어 학습 효율성이 높으며, 데이터 양이 제한된 상황에서도 견고한 성능을 보여준다.
XGBoost는 비선형 관계를 잘 포착하지만, 시계열의 장기 의존성을 모델링하는 데 한계가 있어 중·장기 구간에서는 성능이 떨어졌다. ARIMA는 단일 충전소 수준에서 짧은 구간에 한해 경쟁력을 유지했지만, 공간 집계가 확대될수록 오류가 급증했으며, 특히 비정상적인 급증·감소 패턴을 잡아내지 못했다.
전체적으로, 모델 선택은 예측 목표(시간·공간 스케일)와 데이터 특성에 따라 달라야 함을 강조한다. 단기·고해상도 운영에서는 Transformer가, 중·장기·전략적 계획에서는 GRU/LSTM이, 제한된 데이터·간단한 로컬 예측에서는 ARIMA 혹은 XGBoost가 적합할 수 있다. 또한, 멀티‑스테이션 학습이 모델 일반화에 기여함을 확인했으며, 향후 연구에서는 외부 변수(전력 가격, 날씨, 교통량)와 온라인 학습 메커니즘을 결합해 적응성을 높이는 방향이 제시된다.
댓글 및 학술 토론
Loading comments...
의견 남기기