내용 무관 추론을 위한 추상 활성화 공간
초록
본 논문은 대형 언어 모델이 전통적인 삼단 논법에서 내용 효과(content effect)로 인해 의미적 타당성에 좌우되는 문제를 해결하고자, 추상적인 형태의 삼단 논법을 이용해 정의한 “추상 추론 공간”으로 모델의 잔차 스트림 활성화를 유도한다. 경량 MLP인 Abstractor를 학습시켜 내용이 포함된 입력의 활성화를 추상 공간에 정렬하고, 다층 인터벤션을 통해 추론 시점에 동적으로 스티어링한다. 영어 데이터만으로 학습한 Abstractor를 9개 언어에 zero‑shot 전이시켜 내용 편향을 크게 감소시키고, 정확도와 Belief‑Bias 지표 모두에서 기존 파인튜닝·CoT 방식보다 우수함을 보인다.
상세 분석
이 연구는 LLM이 논리적 타당성보다 현실적 타당성에 의존하는 ‘content effect’를 근본적으로 완화하려는 시도로, 두 가지 핵심 아이디어를 결합한다. 첫째, 내용이 풍부한 삼단 논법과 동일한 논리 구조만을 유지하는 추상형(예: “All X need Y”)을 쌍으로 만든 뒤, 추상형을 모델에 입력했을 때 얻어지는 잔차 스트림 활성화를 ‘추상 추론 공간’으로 정의한다. 이 공간은 의미적 잡음이 최소화된 순수 논리 표현이라고 가정한다. 둘째, 내용이 포함된 입력에 대해 동일 레이어의 마지막 토큰 활성화를 추상 공간으로 매핑하는 경량 MLP인 Abstractor를 학습한다. 여기서 중요한 설계는 (1) 방향과 크기를 별도 헤드로 예측하는 두‑헤드 구조, (2) 양성·음성 추상 예시를 활용한 트리플렛 기반 대비 학습(contrastive learning)이며, 이는 동일 논리 형식이지만 타당성 라벨이 다른 사례를 구분하도록 모델을 유도한다. 손실 함수는 방향 정렬(attraction), 반대 예시와의 거리 확보(repulsion), 그리고 크기 일치(magnitude)를 동시에 최적화한다.
추론 단계는 두 번의 패스로 구성된다. 첫 번째 패스에서 원본 입력을 그대로 통과시켜 내용‑조건부 활성화를 얻고, 학습된 Abstractor가 이를 추상 목표 벡터 ˆa 로 변환한다. 두 번째 패스에서는 사전 계산된 ˆa 를 선택된 중간 레이어(L*)에 선형 블렌딩(α_t) 방식으로 주입한다. α_t는 토큰 위치에 따라 선형적으로 증가하도록 설계돼, 명령어 뒤에 오는 실제 논증 토큰들에만 강하게 스티어링이 적용된다. 레이어 선택은 논리와 의미가 가장 명확히 분리되는 중간 레이어에서 수행되며, 이는 실험적으로 코사인 유사도가 최소인 구간을 찾아 자동 결정한다.
실험은 Qwen‑2.5, Gemma‑2, Mistral 시리즈 등 6가지 모델에 대해 진행됐으며, 영어 데이터(2,780개)와 9개 추가 언어(각 960개)에서 평가했다. 주요 평가지표는 (a) 일반 정확도, (b) Belief Bias(논리와 현실 타당성이 충돌할 때 성능 저하 정도), (c) Bias‑Penalized Accuracy(BPA) – Belief Bias를 패널티로 반영한 종합 점수, (d) Abstract Alignment(η) – 추상 입력에서 얻은 최고 성능 대비 스티어링 모델의 성능 비율이다. 결과는 (1) 스티어링 적용 시 BPA가 512%p 상승, 특히 내용‑충돌 케이스에서 정확도가 크게 회복됨을 보여준다. (2) 추상 정렬 점수 η가 0.920.98 수준으로, 스티어링 모델이 추상 공간에 거의 근접함을 확인했다. (3) 영어에서 학습한 Abstractor가 다른 언어에서도 유사한 BPA 향상을 보이며, 언어 간 전이 효율이 높음을 입증했다.
또한, 파인튜닝 기반 SFT와 PEFT(PiSSA) 어댑터, 그리고 단순 CoT 프롬프트와 비교했을 때, 파라미터를 전혀 변경하지 않는 인터벤션 방식임에도 불구하고 성능‑효율성 측면에서 경쟁력을 유지한다는 점이 주목할 만하다. Ablation 연구에서는 스티어링 강도 α가 0.6~0.8 구간에서 최적의 BPA를 달성했으며, 다층 스티어링이 단일 레이어보다 안정적인 성능 향상을 제공한다는 결론을 도출했다.
이 논문은 LLM 내부 활성화를 활용한 ‘추상화‑정렬’ 메커니즘이 의미적 편향을 억제하고 논리적 추론을 강화하는 실용적인 방법임을 증명한다. 특히, 사전 학습된 대형 모델을 그대로 두고도 추론 시점에 모듈식으로 켜고 끌 수 있는 인터벤션을 제공함으로써, 기존 파인튜닝·프롬프트 엔지니어링 방식과는 차별화된 확장성을 갖는다. 향후 연구에서는 보다 복잡한 논리 형태(예: 조건부, 양화)와 멀티‑스텝 추론에 대한 추상 공간 정의, 그리고 자동 레이어·강도 최적화 기법을 탐색함으로써 이 접근법을 일반화할 여지가 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기