노이즈쌍 강인 표현 정렬 기반 양성‑미라벨 학습
초록
양성‑미라벨(PU) 학습에서 제한된 양성 샘플과 대량의 라벨이 없는 데이터만으로도 높은 분류 성능을 얻기 위해, 저자는 비대조(non‑contrastive) 방식의 새로운 프레임워크 NcPU를 제안한다. 핵심은 불확실한 라벨에 의해 발생하는 ‘노이즈 쌍’ 문제를 완화하는 Noisy‑Pair Robust Supervised Non‑Contrastive Loss(NoiSNCL)와, 프로토타입 기반의 보수적 음성 라벨을 제공하는 Phantom Label Disambiguation(PLD)이다. 두 모듈은 EM 관점에서 서로를 강화하며, 실험적으로 CIFAR‑10/100, ImageNet‑subset, 그리고 재난 복구 건물 손상 매핑 등 다양한 도메인에서 기존 최첨단 PU 방법들을 크게 앞선다.
상세 분석
본 논문은 PU 학습의 핵심 난제인 “불확실한 감독 아래의 표현 학습”을 정확히 짚어낸다. 기존 대조 학습은 서로 다른 클래스 쌍을 멀리 떨어뜨리는 것이 핵심이지만, PU 환경에서는 라벨이 부정확해 잘못된 ‘노이즈 쌍’이 대량 생성되어 그래디언트가 왜곡된다. 저자는 이를 비대조 학습으로 전환하고, 같은 클래스(양성 또는 추정된 음성) 샘플을 끌어당기는 방식만을 남겨 잡음의 영향을 최소화한다. 구체적으로, BYOL 구조를 차용해 온라인·타깃 네트워크를 유지하면서, 라벨이 일치하는 경우에만 내적 유사도를 최소화하는 손실 L_r을 정의한다. 그러나 PU에서는 라벨이 추정치 ˜y에 의존하므로, 노이즈 쌍이 그래디언트 크기를 압도한다는 수학적 증명(식 6)을 제시한다. 이를 해결하기 위해 NoiSNCL(식 7)은 그래디언트 스케일을 조정해 깨끗한 쌍의 기여를 크게 만든다(식 8). 이 조정은 “깨끗한 쌍의 그래디언트 > 노이즈 쌍”이라는 불균형을 역전시켜, 학습이 실제 의미 있는 클러스터링 방향으로 진행되게 한다.
PLD는 이러한 강인한 표현을 이용해 클래스 프로토타입 µ_c를 지속적으로 업데이트하고, 프로토타입‑임베딩 내적을 기반으로 pseudo‑target s′를 재계산한다. 여기서 핵심은 ‘PhantomGate’ 메커니즘이다. 초기에는 모든 미라벨 샘플을 음성(
댓글 및 학술 토론
Loading comments...
의견 남기기