깊이 정보를 활용한 객체 검출 향상 프레임워크 DepthPrior

깊이 정보를 활용한 객체 검출 향상 프레임워크 DepthPrior
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 깊이 정보를 사전 지식으로 이용해 작은·멀리 있는 객체의 검출 성능을 개선하는 DepthPrior 프레임워크를 제안한다. 깊이에 따른 손실 이분산 현상을 이론적으로 분석하고, 학습 시 깊이 기반 손실 가중치(DLW)와 손실 계층화(DLS), 추론 시 깊이 의존 신뢰도 임계값(DCT)으로 적용한다. 기존 검출기 구조를 변경하지 않으며, KITTI·COCO·VisDrone·SUN RGB‑D 등 4개 데이터셋과 YOLOv11·EfficientDet 두 모델에 적용해 작은 객체에 대해 mAPₛ +9 %, mARₛ +7 % 향상을 달성한다.

상세 분석

논문은 먼저 “깊이‑검출 관계”를 수학적으로 정립한다. 물체가 카메라로부터 멀어질수록 이미지 상의 픽셀 수와 신호‑대‑노이즈 비가 급격히 감소한다는 역제곱 법칙을 가정하고, 이를 신호 품질 함수 Q(d)=κ/d² 로 표현한다. 이후 손실 분산이 신호 품질에 반비례한다는 가정(Var


댓글 및 학술 토론

Loading comments...

의견 남기기