그래프 전이 게임을 이용한 비지도 도메인 적응
초록
본 논문은 소스 도메인의 라벨이 있는 데이터와 타깃 도메인의 라벨이 없는 데이터를 이용해, 게임 이론 기반 그래프 전이 게임(GTG)으로 비지도 도메인 적응을 수행한다. 반복적인 라벨 전파 과정을 통해 Nash 균형에 수렴하며, 소프트 라벨을 통해 불확실성을 정량화한다. 또한 선형 분류기의 의사 라벨을 초기화에 활용해 성능을 향상시킨다. 실험 결과는 제안 방법이 기존 벤치마크에서 경쟁력 있음을 보여준다.
상세 분석
이 논문은 비지도 도메인 적응(UDA)을 “비협력 게임”이라는 프레임워크에 매핑함으로써 기존의 정규화 기반 혹은 적대적 학습 방식과는 다른 접근을 제시한다. 핵심 아이디어는 데이터 포인트들을 그래프의 노드로 보고, 노드 간 유사도(거리) 기반으로 가중치를 부여한 뒤, 각 노드가 자신이 속할 클래스에 대한 전략을 선택하도록 하는 것이다. 게임의 플레이어는 모든 데이터(라벨이 있는 소스와 라벨이 없는 타깃)이며, 각 플레이어는 자신의 전략(클래스 확률 분포)을 업데이트한다. 업데이트 규칙은 상대 플레이어들의 현재 전략에 대한 베스트 리스폰스(best response)를 계산하는 형태이며, 이는 그래프 라벨 전파(Graph Transduction)와 동일시될 수 있다.
논문은 이 과정을 “그래프 전이 게임”(Graph Transduction Game, GTG)이라 명명하고, 다음과 같은 중요한 특성을 강조한다. 첫째, GTG는 유한 전략 공간을 갖는 비협력 게임이므로, 반복적인 베스트 리스폰스 업데이트는 반드시 Nash 균형에 수렴한다. 이는 라벨링이 일관된 상태(모든 이웃 간 라벨 충돌 최소화)와 동치이며, 알고리즘이 무한히 돌아가는 위험을 원천 차단한다. 둘째, 각 노드가 확률 분포 형태의 소프트 라벨을 유지하므로, 라벨링 불확실성을 정량화할 수 있다. 이는 후속 단계에서 신뢰도 기반 필터링이나 앙상블에 활용 가능하다.
또한 저자는 초기화 전략으로 두 가지 방식을 실험한다. (1) 무작위 초기화: 모든 클래스에 균등 확률을 부여한다. (2) 선형 분류기(예: SVM, 로지스틱 회귀)로부터 얻은 의사 라벨을 소스와 타깃 모두에 적용해 초기 확률을 설정한다. 두 번째 방식은 초기 라벨 품질을 크게 향상시켜, GTG가 빠르게 수렴하고 최종 정확도가 상승한다는 실험적 증거를 제공한다.
기술적인 구현 측면에서, 저자는 k-최근접 이웃(k-NN) 그래프를 사용해 노드 간 연결을 정의하고, 가중치는 가우시안 커널 기반 거리 척도로 설정한다. 전략 업데이트는 닫힌 형태의 식으로 도출되며, 각 반복마다 전체 그래프에 대해 행렬 연산을 수행한다. 복잡도는 O(N²) 정도이지만, N이 수천 수준인 일반적인 이미지 인식 벤치마크에서는 GPU 가속을 통해 실시간에 가까운 실행이 가능하다.
실험에서는 Office-31, Office-Home, VisDA-2017 등 대표적인 도메인 적응 데이터셋을 사용했으며, 피처 추출은 VGG-16, ResNet-50 같은 사전 학습된 CNN을 활용했다. shallow feature(핵심 색상 히스토그램 등)와 deep feature(중간 레이어 출력) 모두에 대해 GTG를 적용했을 때, 기존 방법들(DA-DA, DANN, CDAN 등)과 비교해 평균 정확도에서 1~3%p의 향상을 기록했다. 특히, pseudo‑label 초기화가 없는 경우에도 GTG는 견고한 성능을 보였으며, 초기화 품질이 높을수록 수렴 속도가 빨라지는 현상이 관찰되었다.
이 논문의 주요 기여는 다음과 같다. (i) UDA 문제를 게임 이론적으로 정형화함으로써 라벨링 일관성을 Nash 균형이라는 수학적 개념으로 보장한다. (ii) 소프트 라벨을 통해 불확실성을 정량화하고, 이를 기반으로 후처리나 신뢰도 기반 선택이 가능하도록 한다. (iii) 선형 분류기의 pseudo‑label을 초기화에 활용하는 간단하지만 효과적인 전략을 제시한다. (iv) 다양한 피처와 데이터셋에 대해 일관된 성능 향상을 입증한다. 이러한 장점은 특히 라벨이 전혀 없는 타깃 도메인에서 신뢰할 수 있는 자동 라벨링이 요구되는 실무 환경에 유용할 것으로 기대된다.
댓글 및 학술 토론
Loading comments...
의견 남기기