라벨퓨전: LLM과 트랜스포머 분류기의 융합 학습으로 강인한 텍스트 분류 구현

읽는 시간: 2 분
...

📝 원문 정보

  • Title: LabelFusion: Learning to Fuse LLMs and Transformer Classifiers for Robust Text Classification
  • ArXiv ID: 2512.10793
  • 발행일: 2025-12-11
  • 저자: Michael Schlee, Christoph Weisser, Timo Kivimäki, Melchizedek Mashiku, Benjamin Saefken

📝 초록 (Abstract)

LabelFusion은 전통적인 트랜스포머 기반 분류기(RoBERTa 등)와 하나 이상의 대형 언어 모델(LLM, 예: GPT, Gemini, DeepSeek)을 결합해 다중 클래스·다중 라벨 텍스트 분류에서 정확도와 비용 효율성을 동시에 달성하는 융합 앙상블이다. 고수준 인터페이스인 AutoFusionClassifier는 최소 설정만으로 전체 파이프라인을 종단‑끝 학습시키며, 고급 사용자를 위한 유연한 API도 제공한다. 내부적으로는 트랜스포머 백본의 임베딩과 구조화된 프롬프트 엔지니어링을 통해 얻은 LLM 기반 클래스별 점수를 연결(concatenate)하고, 이를 소형 다층 퍼셉트론(FusionMLP)에 입력해 최종 예측을 만든다. 이 학습 기반 융합은 LLM의 추론 능력과 트랜스포머의 빠른 특징 추출을 보완해 AG News에서 92.4%, Reuters‑21578(10‑class)에서 92.3%의 정확도를 기록했으며, 정확도·지연·비용 사이의 실용적 트레이드오프를 가능하게 한다.

💡 논문 핵심 해설 (Deep Analysis)

Figure 1
Label퓨전(LabelFusion)은 텍스트 분류 분야에서 최근 두 축을 동시에 활용하려는 시도—전통적인 트랜스포머 기반 모델의 효율적인 특징 추출과 대형 언어 모델(LLM)의 풍부한 사전 지식·추론 능력—를 하나의 학습 가능한 프레임워크로 결합한다는 점에서 의미가 크다. 먼저, RoBERTa와 같은 사전 학습된 트랜스포머는 입력 문장을 고차원 벡터로 변환해 문맥 정보를 압축한다. 이러한 벡터는 일반적으로 분류 헤드에 바로 연결돼 빠른 추론을 제공하지만, 라벨 간 미묘한 의미 차이나 외부 지식이 필요한 경우 성능이 한계에 부딪힌다. 반면, GPT·Gemini·DeepSeek 등 최신 LLM은 프롬프트에 따라 각 라벨에 대한 확률 점수 혹은 설명을 생성할 수 있다. 이때 라벨명을 명시적으로 제시하고 “이 문장이 해당 라벨에 속하는지 점수를 알려줘”와 같은 구조화된 프롬프트를 사용하면, LLM은 사전 학습된 방대한 텍스트 코퍼스에서 얻은 일반화된 지식을 활용해 라벨별 신뢰도를 제공한다. 그러나 LLM 호출은 API 비용·응답 지연이 크고, 직접적인 파인튜닝이 어려워 실시간 서비스에 바로 적용하기엔 제약이 있다.

LabelFusion은 이러한 장단점을 보완하기 위해 두 신호를…

📄 논문 본문 발췌 (Translation)

...(본문 내용이 길어 생략되었습니다. 사이트에서 전문을 확인해 주세요.)

검색 시작

검색어를 입력하세요

↑↓
ESC
⌘K 단축키