데이터 불균형을 가중 손실로 해결한 트랜스포머 기반 감정 탐지

데이터 불균형을 가중 손실로 해결한 트랜스포머 기반 감정 탐지
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 SemEval‑2025 Task 11에서 제시된 BRIGHTER 데이터셋의 다중 라벨 감정 분류에 대해, 클래스 빈도에 기반한 동적 가중 손실 함수를 적용한 BERT, RoBERTa, BART 모델을 평가한다. 가중 손실은 소수 클래스에 대한 학습 편향을 완화하면서도 재샘플링 없이 계산 비용을 최소화한다. 실험 결과, 가중 손실이 전반적인 Micro F1, Macro F1, ROC‑AUC, Accuracy, Jaccard에서 성능을 향상시키지만, 특히 희소 감정 클래스에 대한 개선 효과는 제한적이었다.

상세 분석

이 연구는 다중 라벨 감정 인식에서 흔히 발생하는 클래스 불균형 문제를 전통적인 오버/언더샘플링 대신 손실 함수에 클래스 가중치를 직접 삽입하는 방식으로 해결하고자 한다. 가중치는 각 감정 클래스의 빈도 f j를 전체 샘플 수 N 으로 나눈 뒤, 최대 가중치와의 비율을 취해 정규화한다( w j = max(W)/w j ). 이렇게 정의된 가중 손실 L′ 은 BCE 기반 다중 라벨 학습에 그대로 적용되며, 라벨 스무딩 ε 을 함께 사용해 과적합을 억제한다.

모델 아키텍처는 BERT‑base‑uncased, RoBERTa‑base, BART‑base를 그대로 사용하고, 토크나이저는 HuggingFace AutoTokenizer를 통해 모델별 WordPiece 또는 BPE 방식을 적용한다. 입력 길이는 고정하고, 패딩·트렁케이션을 자동 수행한다. 학습은 AdamW 옵티마이저와 선형 학습률 스케줄러를 사용하며, 배치 8, 에폭 3, 학습률 2.45×10⁻⁵ 라는 Optuna 기반 베이지안 최적화 결과를 채택한다. 조기 종료는 검증 셋의 Macro F1을 기준으로 수행한다.

평가 지표는 Micro F1, Macro F1, ROC‑AUC, Accuracy, Jaccard, Weighted F1을 포함한다. 특히 Weighted F1은 클래스별 지원(support) 비중을 반영해 불균형 영향을 보정한다. 실험 결과는 표 1에 요약된다. BERT과 BART에 가중 손실을 적용했을 때 Micro F1가 각각 0.7095→0.7198, 0.6961→0.7321 로 상승했으며, Macro F1와 ROC‑AUC, Accuracy, Jaccard 역시 전반적으로 향상되었다. 반면 RoBERTa는 가중 손실 적용 시 Micro F1가 약간 감소(0.7282→0.7268)했지만, 다른 지표에서는 소폭 개선되었다. 이는 모델별 학습 역학 차이와 가중치 적용 방식이 미세하게 다르게 작용함을 시사한다.

주요 인사이트는 다음과 같다. 첫째, 가중 손실은 재샘플링 없이도 다중 라벨 환경에서 클래스 불균형을 완화할 수 있다. 둘째, 효과는 주로 고빈도 클래스에 집중되며, 희소 클래스에 대한 성능 향상은 제한적이다. 이는 가중치가 빈도 비율에 기반하기 때문에, 극히 적은 샘플을 가진 클래스는 여전히 학습 신호가 부족한 구조적 한계가 남는다. 셋째, 모델 아키텍처에 따라 가중 손실의 민감도가 다르며, 특히 RoBERTa는 사전 학습 규모와 정규화 특성 때문에 미세한 성능 변동을 보인다. 마지막으로, 라벨 스무딩과 결합된 가중 손실은 과적합을 억제하면서도 전반적인 일반화 성능을 끌어올리는 데 기여한다.

한계점으로는 영어 서브셋만을 대상으로 실험했으며, 다국어 확장성 검증이 부족하고, 가중치 계산이 고정된 빈도 기반이므로 동적 데이터 흐름이나 라벨 간 상관관계를 반영하지 못한다는 점을 들 수 있다. 향후 연구에서는 라벨 의존성을 모델링하는 그래프 기반 가중치, 메타러닝을 통한 가중치 자동 조정, 그리고 소수 클래스에 특화된 데이터 증강 기법을 결합함으로써 현재의 한계를 보완할 수 있을 것이다.


댓글 및 학술 토론

Loading comments...

의견 남기기