시계열 딥러닝을 활용한 전력 부하 예측: ARIMA에서 트랜스포머까지

시계열 딥러닝을 활용한 전력 부하 예측: ARIMA에서 트랜스포머까지
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

**
본 논문은 PJM 시간당 전력 소비 데이터를 대상으로 전통적인 ARIMA 모델과 세 가지 딥러닝 모델(LSTM, BiLSTM, Transformer)을 비교한다. 데이터 전처리(보간, 정규화, 슬라이딩 윈도우) 후 24시간 예측을 수행했으며, MAE, RMSE, MAPE 지표로 평가하였다. Transformer가 3.8% MAPE로 가장 우수한 성능을 보였으며, 이는 기존 RNN 기반 모델보다 약 9.5% 개선된 결과이다. 연구는 전력 부하 예측에서 자기‑주의 메커니즘이 복잡한 시계열 패턴을 효과적으로 포착한다는 점을 강조한다.

**

상세 분석

**
본 연구는 전력 시스템 운영에 필수적인 단기 부하 예측을 위해 통계적 모델과 최신 딥러닝 아키텍처를 체계적으로 비교하였다. 먼저 ARIMA는 Box‑Jenkins 절차에 따라 차분 차수(d)와 자기회귀 차수(p), 이동평균 차수(q)를 ADF 테스트와 PACF/ACF 분석을 통해 선정하였다. 그러나 전력 부하 데이터는 비선형성, 다중 계절성, 급격한 변동을 포함하고 있어 선형·정상성 가정이 크게 위배된다. 이에 LSTM과 BiLSTM을 도입했는데, 두 모델 모두 2개의 LSTM 레이어(각 128 유닛)와 0.2 드롭아웃을 적용해 과적합을 억제하였다. BiLSTM은 순방향·역방향 정보를 동시에 학습함으로써 시간적 대칭성을 활용했으며, LSTM 대비 MAPE가 0.3%p 정도 개선되었다.

Transformer 구현에서는 원본 인코더‑디코더 구조를 기반으로, 디코더를 제거하고 회귀 출력에 맞게 수정하였다. 인코더는 4개의 스택, 각 스택당 8개의 멀티헤드 어텐션(헤드 차원 64, 전체 차원 512)과 2048 차원의 피드포워드 레이어, GELU 활성화를 사용하였다. 위치 정보를 보존하기 위해 사인‑코사인 포지셔널 인코딩을 적용했으며, 학습률 1e‑4, 배치 64, 에포크 50으로 Adam 최적화를 수행했다. 자기‑주의 메커니즘은 전체 시퀀스를 한 번에 처리하면서 각 시점 간의 가중치를 동적으로 조정하므로, 일일·주간·월간 계절성을 동시에 포착한다. 실험 결과 Transformer는 MAE 120, RMSE 180, MAPE 3.8%를 기록했으며, 이는 BiLSTM 대비 MAPE가 약 9.5%p 감소한 수치이다.

성능 차이는 모델 구조적 차이에 기인한다. ARIMA는 선형 회귀 기반이므로 급격한 부하 변동을 예측하지 못하고, 잔차가 크게 발생한다. RNN 계열은 순차적 처리 특성상 장기 의존성을 학습하는 데 한계가 있으며, 특히 24시간 이상의 시계열에서는 그래디언트 소실·폭발 문제가 여전히 존재한다. 반면 Transformer는 병렬 연산과 전역 어텐션을 통해 장기 의존성을 효율적으로 학습하고, 계산 복잡도는 O(N·log N) 수준으로 유지된다. 또한, 본 연구는 기본 Transformer 외에 Informer, Autoformer, PatchTST, iTransformer와 같은 최신 변형 모델을 설계 참고 자료로 제시했으며, 향후 이러한 모델을 적용하면 더욱 긴 예측 지평선에서도 경쟁력을 확보할 수 있을 것으로 기대한다.

**


댓글 및 학술 토론

Loading comments...

의견 남기기