동적 환경을 위한 일관성 기반 SLAM, CAD‑SLAM: 움직임‑정적 분리 매핑
초록
CAD‑SLAM은 과거 3D Gaussian 맵과 현재 RGB‑D 관측을 비교해 기하·텍스처 불일치를 탐지함으로써 동적 객체를 실시간으로 구분한다. 탐지된 객체는 앞·뒤 방향으로 추적되어 완전한 시퀀스‑와이즈 동적 인식을 제공하고, 정적‑동적 맵을 각각 Gaussian 모델로 독립적으로 업데이트한다. 이 과정은 사전 정의된 카테고리 없이도 즉시 동적 영역을 마스크하고, 카메라 포즈 추정과 고품질 밀집 재구성을 동시에 향상시킨다.
상세 분석
CAD‑SLAM의 핵심 아이디어는 “정적 세계 가정 위반 = 관측 불일치”라는 물리적 직관에 기반한다. 구체적으로, 시스템은 3D Gaussian Splatting으로 표현된 히스토리 맵을 현재 프레임의 카메라 자세에 맞춰 렌더링하고, 렌더링된 색·깊이와 실제 RGB‑D 입력 사이의 차이를 픽셀 단위로 계산한다. 이 차이는 크게 두 종류로 해석된다. 첫째, 기하학적 불일치는 물체 표면이 이동하거나 변형될 때 발생하며, Gaussian의 위치·공분산 파라미터가 과거와 현재에서 크게 달라지는 형태로 나타난다. 둘째, 텍스처 불일치는 조명 변화보다 물체 자체의 움직임에 의해 초래되는 색상·반사율 변화로, SH(구면조화) 계수의 급격한 변동으로 포착된다. 이러한 두 차원을 동시에 고려함으로써, CAD‑SLAM은 기존의 optical flow나 semantic segmentation이 겪는 카메라 움직임과 물체 움직임의 혼동을 효과적으로 해소한다.
동적 객체가 탐지되면, 시스템은 “양방향 트랙렛”을 생성한다. 이는 현재 프레임을 기준으로 과거와 미래 프레임 모두에서 해당 객체의 Gaussian 집합을 역추적·전방 추적하는 절차이며, 객체가 일시적으로 가려지거나 빠르게 움직여도 연속적인 ID 유지가 가능하도록 설계되었다. 이 과정에서 객체별 시간‑가중 Gaussian 모델이 업데이트되며, 위치·크기·색상 변화가 연속적인 확률 분포로 표현된다. 결과적으로 동적 객체는 별도의 “동적 맵”에 저장되고, 정적 배경은 동적 영역을 마스크한 뒤 점진적으로 완성된다. 정적 맵은 기존 3DGS 기반 SLAM과 동일한 최적화 파이프라인(프레임‑투‑모델 트래킹 → DB‑A 후 ConvGRU 보정)으로 유지되면서, 동적 마스크에 의해 오염되지 않는다.
CAD‑SLAM은 또한 실시간성을 고려해 설계되었다. 3D Gaussian Splatting은 MLP 기반 NeRF에 비해 렌더링 비용이 낮으며, 차별화된 불일치 맵 계산은 GPU에서 전역 연산으로 구현된다. 따라서 프레임당 30 ms 이하의 지연으로 카메라 자세 추정과 동적‑정적 맵 업데이트가 동시에 이루어진다. 실험에서는 TUM‑RGBD‑Dynamic, KITTI‑Raw 등 다양한 동적 데이터셋에서 기존 NeRF‑SLAM, GS‑SLAM, DynaMoN 등을 능가하는 트래킹 정확도(ATE < 2 cm)와 고해상도 밀집 재구성(PSNR > 30 dB)을 달성하였다. 한계점으로는 매우 빠른 회전·스케일 변형을 보이는 비강체(예: 풍선)의 경우 Gaussian 파라미터가 급격히 변해 추적 안정성이 떨어질 수 있으며, 현재는 RGB‑D 센서에 의존하므로 라이다‑전용 시스템에 바로 적용하기는 어려운 점이 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기