CUT‑ONCE와 COLER로 무감독 객체 발견 및 인스턴스 분할 혁신
초록
본 논문은 Normalized Cut을 한 번만 적용해 다중 객체 마스크를 생성하는 CutOnce와, 이를 활용해 제로샷 무감독 인스턴스 분할·객체 검출을 수행하는 COLER를 제안한다. 밀도‑조정 코사인 유사도, 경계 강화, 랭크 필터 등 세 가지 모듈을 통해 마스크 품질과 객체 수를 크게 개선했으며, 별도 손실 설계 없이 자체 학습(self‑training)만으로 기존 최첨단 방법들을 능가한다.
상세 분석
COLER의 핵심은 기존 무감독 객체 발견 파이프라인에서 발생하던 두 가지 병목을 동시에 해소한 CutOnce에 있다. 첫째, 기존 방법들은 Normalized Cut(NCut)을 여러 번 재귀적으로 적용하거나, 두 번째 작은 고유벡터를 얻은 뒤 K‑Means와 같은 클러스터링을 수행해 다중 객체를 구분했다. 이는 클러스터 수를 사전에 지정해야 하는 제약과 재귀 단계가 늘어날수록 오류가 누적되는 문제를 야기한다. CutOnce는 NCut을 단 한 번만 수행하고, 두 번째 고유벡터(y₁)를 직접 변형해 다중 객체를 추출한다는 점에서 근본적인 패러다임 전환을 보여준다.
두 번째 혁신은 ‘밀도‑조정 코사인 유사도’ 모듈이다. 기존의 단순 코사인 유사도는 이미지 내 지역별 피처 밀도 차이를 반영하지 못해 배경과 전경이 혼합되는 현상을 초래한다. 저자는 각 패치의 로컬 밀도 ρᵢ를 상위 k개의 유사 이웃 평균으로 정의하고, 이를 온도 파라미터 Tᵢⱼ에 가감함으로써 유사도 행렬 W를 동적으로 스케일링한다. 밀도가 높은 객체 내부는 높은 온도로 유사도가 억제되고, 균일한 배경은 낮은 온도로 유지돼, 경계가 명확히 구분되는 그래프가 형성된다. 이는 스펙트럴 클러스터링에서 자주 쓰이는 self‑tuning 기법을 간결하게 적용한 사례라 할 수 있다.
세 번째 모듈인 ‘경계 강화(Boundary Augmentation)’는 y₁에서 직접 경계 정보를 추출해 보정한다. 경계 고유벡터 X_b는 각 픽셀과 8‑neighborhood 간 차이의 평균으로 계산되며, 원본 고유벡터 X와 차를 취해 X_a = X – X_b를 만든다. 이 과정은 객체 내부의 고강도 영역을 억제하고, 경계 근처의 미세한 변화를 강조해 작은 객체나 서로 인접한 객체가 하나의 군집으로 합쳐지는 현상을 방지한다. 실험 결과, X_a를 이용한 그래프 파티셔닝은 전경 영역을 보다 넓게 확장하면서도 경계 정확도를 유지한다.
마지막으로 ‘랭크 피처 필터(Rank Feature Filter)’는 그래프 파티셔닝 후 생성된 마스크들을 점수화하고, 상위 95%만을 유지한다. 이는 과도한 가짜 마스크를 배제해 학습 단계에서 노이즈 전파를 최소화한다.
COLER는 이러한 CutOnce에서 얻은 마스크를 그대로 사용해 객체 검출기(예: Mask R‑CNN 기반)를 학습한다. 특이한 점은 pseudo‑mask에 대한 별도 손실 함수(예: 라벨 스무딩, 불확실성 가중치 등)를 설계하지 않고, 기존 검출 손실(AP, IoU 등)만으로도 충분히 학습이 진행된다는 것이다. 이후 자기‑학습(self‑training) 루프를 도입해 검출기가 생성한 예측 마스크를 다시 학습 데이터에 재투입함으로써 성능을 단계적으로 끌어올린다.
실험에서는 COCO, VOC, LVIS 등 다양한 벤치마크에서 기존 최첨단 무감독 방법들(TokenCut, MaskCut, VoteCut 등)을 크게 앞섰다. 특히 10개 이상의 객체를 동시에 탐지할 수 있는 능력과 마스크 생성 속도가 0.23 s/이미지(기존 5.6 s 대비 10배 이상)로 크게 개선된 점이 눈에 띈다. 전체 파이프라인은 학습 단계 없이도 즉시 적용 가능하므로, 라벨이 전혀 없는 상황에서도 빠르게 객체 후보를 확보할 수 있다.
요약하면, COLER는 NCut을 한 번만 적용해 다중 객체 마스크를 효율적으로 생성하고, 이를 기반으로 별도 손실 설계 없이도 강력한 무감독 객체 검출기를 학습시키는 새로운 프레임워크이며, 제안된 세 가지 모듈(밀도‑조정, 경계 강화, 랭크 필터)이 각각 그래프 기반 분할의 정확도와 효율성을 크게 향상시킨다.
댓글 및 학술 토론
Loading comments...
의견 남기기