장거리 CCTV 깊이 추정을 위한 하이브리드 왜곡 모델
초록
본 논문은 기존의 왜곡 모델이 장거리(최대 5 km) 3D 측정에 한계를 보이는 문제를 해결하고자, 고차항을 추가한 전통적 왜곡 모델에 신경망 기반 잔차 보정기를 결합한 하이브리드 왜곡 모델을 제안한다. 이를 통해 CCTV 스테레오 시스템의 캘리브레이션 정확도를 크게 향상시켜, 장거리 물체의 위치를 GIS 좌표로 변환·시각화하는 실험적 검증 결과를 제시한다.
상세 분석
이 논문은 장거리 포토그래메트리에서 가장 큰 병목 중 하나인 렌즈 왜곡 모델링을 심도 있게 다룬다. 기존의 Brown‑Conrady, Kannala‑Brandt, Rational 등 고전 모델은 3~5개의 파라미터만을 사용해 방사형·접선형 왜곡을 보정한다. 그러나 거리 증가에 따라 작은 왜곡 오차도 큰 깊이 오차(예: 0.5 pixel의 시차 오류가 수백 미터에서 수 킬로미터까지 수 미터 수준의 위치 오차를 초래)로 이어진다. 논문은 이러한 한계를 인식하고 두 단계 접근법을 제안한다.
첫 번째 단계는 기존 모델에 고차항(k₄, k₅, k₆ 등)과 프리즘·틸트 파라미터를 추가해 파라미터 공간을 확장한다. 이는 기존 최적화(Levenberg‑Marquardt) 기반 캘리브레이션 과정에서 더 풍부한 비선형성을 포착하게 한다. 두 번째 단계는 확장된 모델이 남긴 잔차를 신경망(다층 퍼셉트론 혹은 작은 CNN)으로 학습한다. 여기서 신경망은 입력으로 왜곡 보정 전후의 정규화된 좌표와 초기 파라미터를 받아, 잔차 함수를 근사함으로써 파라미터 추정이 수렴하지 않던 문제를 보완한다.
핵심 아이디어는 “하이브리드”라는 형태로, 물리 기반 모델이 제공하는 구조적 제약과 데이터‑드리븐 모델이 제공하는 높은 표현력을 결합한다는 점이다. 실험에서는 10 m 베이스라인을 가진 두 대의 CCTV 카메라를 사용해 5 km 거리까지의 물체를 삼각측량하였다. 기존 5‑파라미터 모델 대비 평균 재투영 오차가 0.8 pixel에서 0.12 pixel 수준으로 감소했으며, GIS 변환 후 위치 오차는 1 % 이하로 유지되었다. 또한, 모델 학습 과정에서 과적합을 방지하기 위해 교차 검증과 L2 정규화를 적용했으며, 실시간 적용 가능하도록 경량화된 네트워크 구조를 채택했다.
이 접근법은 기존 CCTV와 같은 중저가 광학 센서에도 적용 가능하다는 점에서 실용성이 크다. 다만, 고차원 파라미터와 신경망 학습이 추가적인 계산 비용을 요구하므로, 현장 배치 시 GPU 기반 엣지 디바이스가 필요할 수 있다. 또한, 훈련 데이터 확보를 위해 장거리 교정 타깃(예: 대형 체스보드 혹은 GPS‑태깅된 표적)을 다수 배치해야 하는 운영상의 제약도 존재한다.
전반적으로, 이 논문은 장거리 광학 측정 분야에서 왜곡 모델링의 한계를 신경망 기반 보정으로 극복한 사례를 제시하며, 향후 무인 감시, 해양·공중 물체 추적 등에 직접적인 응용 가능성을 열어준다.
댓글 및 학술 토론
Loading comments...
의견 남기기