주의 풀링으로 텍스트 이상 탐지 혁신
초록
AP‑OOD는 토큰 임베딩을 평균이 아닌 학습 가능한 어텐션 풀링으로 집계해, 제한된 외부 이상 데이터까지 활용할 수 있는 반지도학습 OOD 탐지 기법이다. 언어 모델의 토큰 수준 정보를 보존하면서 Mahalanobis 거리와 연결하고, 요약·번역 태스크에서 기존 방법 대비 FPR95를 크게 낮추었다.
상세 분석
본 논문은 자연어 처리에서 OOD(Out‑of‑Distribution) 탐지를 위해 토큰 임베딩을 단순 평균(mean‑pooling)하는 기존 접근법의 근본적인 한계를 지적한다. 평균은 시퀀스 내 토큰 간 구조적 차이를 소멸시켜, ID와 OOD 시퀀스가 동일한 평균값을 가질 경우 구분이 불가능해진다. 이를 해결하기 위해 저자들은 Mahalanobis 거리의 방향성 분해를 어텐션 풀링 형태로 일반화한다. 구체적으로, 학습 가능한 질의 벡터 w (또는 다중 질의 W)와 온도 파라미터 β 를 도입해 AttPoolβ(Z,w)=Z·softmax(β Zᵀw) 로 토큰 임베딩을 가중합한다. 이렇게 얻은 시퀀스 대표 \bar z 와 전체 코퍼스에 대한 전역 프로토타입 μ 를 이용해 d²(Z, \tilde Z)=∑ₖ‖w_kᵀZ·softmax(β Zᵀw_k)−w_kᵀ\tilde Z·softmax(β \tilde Zᵀw_k)‖² 를 정의하고, 이를 최소화하는 손실 L 을 제안한다. β=0, M=D 일 때는 기존 Mahalanobis 거리와 동일함을 증명해, 제안 방법이 기존 방법의 일반화임을 이론적으로 뒷받침한다.
AP‑OOD는 두 가지 학습 모드를 제공한다. (1) 비지도 모드에서는 ID 시퀀스만 사용해 d² 를 최소화함으로써 토큰 수준의 변동성을 학습한다. (2) 지도 모드에서는 제한된 외부 이상 데이터(AUX)를 활용해 d² 를 크게 만들도록 바이너리 교차 엔트로피 손실을 추가한다. λ 파라미터를 통해 두 손실을 부드럽게 전이시킬 수 있어, 실제 현장에서는 AUX 데이터가 부족할 때도 점진적으로 성능을 향상시킬 수 있다.
실험에서는 PEGASUS‑LARGE를 XSUM 요약 데이터에 fine‑tune한 모델을 ID로 설정하고, 다양한 OOD 데이터(CNN/DM, Newsroom, Reddit, Samsum)와 번역 태스크(WMT15 En‑Fr)에서 평가했다. 비지도 설정에서 FPR95를 27.84 %→4.67 % (XSUM)로, 77.08 %→70.37 % (WMT15)로 크게 낮추었으며, AUR‑OC 역시 전반적으로 우수했다. 지도 설정에서도 제한된 AUX(예: C4 서브셋)만 사용했을 때 기존 Mahalanobis 기반 방법보다 일관적으로 낮은 FPR95를 기록했다.
또한, 어텐션 풀링이 토큰 간 상관관계를 보존함을 시각화(그림 1‑2)와 정량적 분석을 통해 입증했으며, 다중 헤드·다중 질의 확장, 메모리 효율적인 미니배치 어텐션 구현 등 실용적인 엔지니어링 기법도 제시한다. 한계점으로는 대규모 시퀀스(수천 토큰)에서 \tilde Z 구축 시 메모리 부담이 존재하고, β 와 M 의 하이퍼파라미터 선택이 데이터셋마다 민감하게 작용한다는 점을 언급한다. 전반적으로 토큰 수준 정보를 활용한 어텐션 기반 거리 측정이 OOD 탐지에 강력함을 보여주는 중요한 연구이다.
댓글 및 학술 토론
Loading comments...
의견 남기기