그래프 정상성 보정으로 반감독 이상 탐지 성능 향상

그래프 정상성 보정으로 반감독 이상 탐지 성능 향상
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 기존 반감독 그래프 이상 탐지(GAD) 모델이 라벨된 정상 노드에만 의존해 과적합되는 문제를 해결하고자, 사전 학습된 교사 모델의 점수와 표현을 활용해 정상성을 보정하는 GraphNC 프레임워크를 제안한다. 점수 분포 정렬(ScoreDA)과 교란 기반 정상성 정규화(NormReg) 두 모듈을 결합해 점수와 임베딩을 동시에 정교화함으로써, 정상 노드의 표현을 더 컴팩트하게 만들고 이상 점수를 보다 명확히 구분한다. 6개 벤치마크에서 다양한 교사 모델을 적용했을 때 일관된 성능 향상과 최첨단 결과를 달성한다.

상세 분석

GraphNC는 “교사‑학생” 구조를 채택한다. 교사 모델은 기존의 반감독 GAD 방법(재구성 기반, 일‑클래스 기반, 이상 생성 기반 등) 중 하나를 사전 학습시켜 고정한다. 학생 모델은 2‑layer GNN과 MLP로 구성되며, 두 가지 손실을 동시에 최소화한다. 첫 번째 손실인 ScoreDA는 교사 모델이 출력한 전체 노드의 이상 점수 분포 Y_T와 학생 모델이 예측한 점수 Y_S 사이의 평균 제곱 오차를 최소화한다. 교사 모델은 대부분 정상 노드와 일부 이상 노드에 대해 정확한 점수를 제공하므로, 이 정렬 과정은 정상과 이상 점수를 서로 반대 극단으로 끌어당겨 스코어 공간을 명확히 분리한다. 그러나 교사 모델 역시 라벨이 부족해 일부 부정확한 점수를 가질 수 있다. 이를 보완하기 위해 NormReg가 도입된다. NormReg는 라벨된 정상 노드 V_l에 대해 속성 마스킹 비율 ω를 적용해 여러 변형 그래프 Ĝ를 생성하고, 원본과 변형 그래프에서 얻은 임베딩 H_S와 Ĥ_S 사이의 일관성 손실(예: L2 거리)을 최소화한다. 이 과정은 정상 노드의 표현을 더 조밀하게 만들고, 교사 점수의 노이즈에 대한 의존도를 감소시킨다. 두 손실을 가중합(L = λ₁·L_ScoreDA + λ₂·L_NormReg)으로 최적화함으로써, 학생 모델은 점수와 표현 양쪽에서 교사의 지식을 흡수하면서 자체적인 일반화 능력을 확보한다. 실험에서는 GGAD, ANOMALOUS‑GEN 등 서로 다른 교사 모델을 교체해도 일관된 성능 향상이 관찰되었으며, 특히 라벨된 정상 노드 비율이 낮을수록 NormReg의 효과가 두드러졌다. 또한 t‑SNE 시각화와 평균 편차 분석을 통해 NormReg가 정상 클래스의 임베딩 분산을 현저히 감소시킴을 확인했다. 전체적으로 GraphNC는 기존 반감독 GAD가 겪는 과적합·높은 FP 문제를 점수 정렬과 표현 정규화라는 두 축으로 동시에 해결하는 혁신적인 보정 메커니즘을 제공한다.


댓글 및 학술 토론

Loading comments...

의견 남기기