FGAA‑FPN: 전경‑가이드 각도‑인식 피라미드 네트워크로 회전 객체 검출 혁신
초록
본 논문은 고해상도 원격탐사 영상에서 회전 객체 검출의 정확도를 크게 향상시키는 FGAA‑FPN 모델을 제안한다. 저해상도 피라미드 단계에 전경‑가이드 특징 변조(FGFM) 모듈을 삽입해 배경 잡음을 억제하고, 고수준 피라미드 단계에 각도‑인식 다중 헤드 어텐션(AAMHA) 모듈을 적용해 방향 정보를 효과적으로 전파한다. DOTA v1.0·v1.5에서 각각 75.5 %와 68.3 % mAP를 달성하며 최첨단 성능을 기록한다.
상세 분석
FGAA‑FPN은 기존의 FPN 기반 회전 객체 검출기들이 겪는 두 가지 근본적인 한계를 동시에 해결한다. 첫 번째는 저수준 피라미드 특징이 배경 잡음에 취약하다는 점이다. 이를 위해 논문은 Foreground‑Guided Feature Modulation(FGFM) 모듈을 설계했으며, 이 모듈은 약한 지도학습(weak supervision) 하에 전경 확률 맵을 예측한다. 구체적으로, 3×3 컨볼루션 두 층과 시그모이드 정규화를 통해 입력 특징 맵 F_i에서 공간적 전경 확률 M_i를 추출한다. 이후 Calibration 단계에서 학습 가능한 스칼라 λ, k, b를 이용해 M_i를 부드럽게 조정한 ˜M_i를 만든다. ˜M_i와 원본 특징을 채널 차원에서 concat한 뒤, 또 다른 3×3 컨볼루션과 그룹 정규화, 시그모이드 함수를 거쳐 채널‑별 가중치 M′_i를 얻는다. 최종적으로 1+α·M′_i 형태의 residual scaling을 적용해 전경‑강화된 특징 ˆF_i를 생성한다. 이 과정은 전경‑배경 구분을 명시적으로 모델링함으로써, 작은 객체나 저대비 객체가 저수준 피라미드 단계에서 소멸되는 현상을 크게 완화한다.
두 번째 한계는 다중 스케일 특징 간의 방향 정보 손실이다. 기존 방법들은 RoI‑Transformer, ReDet 등에서 제안된 회전 정렬 기법을 제안했지만, 이는 주로 RoI 단계에 국한돼 전역적인 특징 교환에는 활용되지 못한다. FGAA‑FPN은 고수준 피라미드 단계에 Angle‑Aware Multi‑Head Attention(AAMHA) 모듈을 삽입한다. AAMHA는 표준 Transformer의 Multi‑Head Self‑Attention 구조를 차용하되, 각 헤드에 각도 임베딩 θ_i를 추가한다. 구체적으로, 입력 특징 X∈ℝ^{C×H×W}를 1×1 컨볼루션으로 Q, K, V로 변환한 뒤, 각 헤드마다 사전 정의된 각도 코사인·사인 벡터를 concat하거나 additive bias로 삽입한다. 이렇게 하면 어텐션 스코어가 단순한 유사도 기반이 아니라 “방향‑가중치”를 반영하게 된다. 결과적으로, 고수준 특징들 간의 전역 상호작용이 객체의 회전 각도를 보존하면서 이루어져, 회전 회귀 단계에서의 오차가 감소한다.
FGAA‑FPN의 설계 철학은 “피라미드 레벨 별 기능 차별화”이다. 저수준에서는 전경‑가이드 변조를, 고수준에서는 각도‑인식 어텐션을 적용함으로써, 각 레벨이 갖는 고유한 특성을 최적화한다. 이는 기존 FPN 변형(PANet, AugFPN, NAS‑FPN 등)이 전역적으로 동일한 fusion 전략을 적용해 발생하는 “균일화 손실”을 보완한다.
실험 결과는 이러한 설계가 실제로 효과적임을 입증한다. DOTA v1.0에서 75.5 % mAP, DOTA v1.5에서 68.3 % mAP를 기록했으며, 특히 작은 객체와 고각도 객체에서 기존 최첨단 모델 대비 2~3 %p 이상의 향상을 보였다. Ablation Study에서는 FGFM만 적용했을 때와 AAMHA만 적용했을 때 각각 1.8 %p, 2.1 %p의 mAP 상승을 보였으며, 두 모듈을 결합했을 때 시너지 효과가 나타났다. 또한, 연산량 측면에서도 3×3 경량 컨볼루션과 그룹 정규화만을 사용해 파라미터 증가가 5 % 이하에 머물러 실시간 혹은 근실시간 응용에 적합하다.
요약하면, FGAA‑FPN은 전경‑가이드와 각도‑인식이라는 두 축을 피라미드 구조에 명시적으로 삽입함으로써, 원격탐사 영상의 복잡한 배경과 다양한 스케일·각도 변동을 동시에 다루는 효율적인 솔루션을 제공한다.
댓글 및 학술 토론
Loading comments...
의견 남기기