도메인 스타일 모델링과 적응형 지식 통합을 통한 무예시 지속학습 인물 재식별
초록
본 논문은 연속적인 데이터 스트림에서 과거 데이터를 저장하지 않고도 사람 재식별 모델을 지속적으로 학습할 수 있는 DSKC 프레임워크를 제안한다. 도메인‑스타일 인코더(DSE)로 각 카메라 환경의 스타일을 동적으로 추출하고, 통합 지식 학습(UKL)과 통합 지식 연관(UKA) 메커니즘을 통해 도메인 간 공통 표현을 구축한다. 이를 통해 재현성 손실을 최소화하고, 기존 재현 기반·증류 기반 방법보다 높은 정확도와 일반화 능력을 달성한다.
상세 분석
DSKC는 기존 LReID 연구가 직면한 두 가지 핵심 문제—도메인‑스타일 인식 부족과 통합 지식 정합의 부재—를 동시에 해결한다. 먼저 DSE는 백본 네트워크 f_B 로부터 추출된 강건한 특징을 각 도메인 전용 전이 모듈(T_M)으로 전달한다. T_M은 멀티‑헤드 셀프‑어텐션(MHSA)과 피드‑포워드 네트워크(FFN)로 구성되어, 현재 입력을 과거 t‑1개의 도메인 스타일에 맞게 변환한다. 이렇게 얻어진 θ_i (i=1…t)는 각 도메인별 스타일을 내포한 표현이며, 과거 모듈은 고정(frozen)되어 이전 지식을 그대로 보존한다.
그 다음 통합 지식 학습(UKL) 단계에서는 가중치 ω를 입력 특징의 평균 μ와 선형 변환 ϕ, 소프트맥스 δ를 통해 동적으로 추정한다. ω는 각 θ_i에 대한 중요도를 나타내며, 이를 가중합하여 통합 표현 θ=∑_i ω_i θ_i 를 만든다. θ는 도메인‑불변 특성을 담은 중심점으로 작동한다. UKL은 기존 ReID 손실인 교차 엔트로피(L_CE)와 트리플릿 손실(L_Tri)을 그대로 적용해 식별 성능을 유지하면서, 추가적으로 지식 정렬(KA) 손실 L_KA=μ(1−Cos(θ_t,θ_i)) (i<t)를 도입해 현재 도메인과 과거 도메인 간 코사인 거리 평균을 최소화한다. 이는 새로운 도메인이 기존 통합 표현을 크게 벗어나지 않도록 제약한다.
통합 지식 연관(UKA) 메커니즘은 θ를 브릿지로 활용해 각 도메인‑스타일 표현 간의 연관성을 명시적으로 모델링한다. 각 θ_i와 θ 사이의 코사인 유사도를 소프트맥스(δ)와 온도 λ(=0.1)로 정규화하여 확률 분포 A_u,i 를 만든 뒤, KL 발산 KL(A_u,t‖A_u,i) 를 최소화한다. 이 과정은 도메인 간 거리 분포를 일관되게 맞추어, 스타일 변동이 큰 환경에서도 모델이 안정적으로 학습되도록 돕는다.
마지막으로 도메인‑기반 스타일 전이(DST) 모듈은 현재 도메인의 분포가 과도하게 편향되는 것을 방지한다. DST는 기존 θ_i들을 재조합하거나, 스타일 변환을 통해 현재 입력을 다중 스타일 공간에 매핑함으로써, 전이 학습 시 발생할 수 있는 도메인 편향을 완화한다. 전체 파이프라인은 예시(Exemplar) 저장이나 교사‑학생(distillation) 구조 없이도, 도메인별 전이 모듈을 동적으로 추가·고정함으로써 메모리와 연산 비용을 크게 절감한다.
실험에서는 Market‑1501, CUHK‑SYSU, DukeMTMC, MSMT17 등 네 개의 대규모 ReID 데이터셋을 두 가지 훈련 순서(예: 순차적→역순)로 구성해 평가하였다. DSKC는 mAP와 Rank‑1 정확도 모두 기존 최첨단 방법보다 평균 2~4%p 이상 향상시켰으며, 특히 “Unseen” 도메인(VIPeR, GRID 등)에서 일반화 성능이 크게 개선되었다. 또한, 메모리 사용량과 연산 시간 측면에서도 저장 기반 방법에 비해 10배 이상 효율적이었다. 코드가 공개돼 재현 가능성이 높으며, 도메인 스타일을 명시적으로 모델링하는 접근법이 LReID 분야에 새로운 패러다임을 제시한다.
댓글 및 학술 토론
Loading comments...
의견 남기기