추론이 언어모델을 인간 사고와 맞추다
초록
본 논문은 인간과 최신 대형 언어모델(LLM)을 대상으로, 증거를 직접 수집하는 ‘샘플링’과 수집된 증거를 통합해 최종 결정을 내리는 ‘추론’ 과정을 명확히 구분한 활성 확률적 추론 과제를 제시한다. 실험 결과, 체인‑오브‑쓰(Chain‑of‑Thought, CoT)와 같은 확장된 추론이 모델의 추론 정확도를 크게 향상시키며 인간과 유사한 믿음 궤적을 만들지만, 정보 획득(샘플링) 능력은 제한적인 개선만 보인다. 네 가지 해석 가능한 잠재 변수(기억, 전략, 선택 편향, 가림 인식)를 이용한 메커니즘 모델을 통해 인간과 모델을 저차원 인지 공간에 매핑하고, CoT가 모델을 인간‑유사 인지 영역으로 이동시키는 과정을 정량화한다.
상세 분석
이 연구는 인간과 LLM의 의사결정 과정을 ‘샘플링’과 ‘추론’이라는 두 단계로 분리함으로써, 기존 밴드잇형 과제에서 혼합된 탐색‑활용 트레이드오프를 해소한다. 실험 설계는 네 개의 버튼 중 하나만이 RED(빨강) 편향을 가지고 있으며, 각 라운드마다 일부 버튼이 가려지는 상황을 만든다. 참가자는 제한된 라운드(N=2~15) 동안 증거를 수집하고, 마지막 라운드에 편향된 버튼을 선택한다. 이때 ‘샘플링 품질’은 최적 정책(PPO+MAP) 대비 증거 획득 효율의 손실로, ‘추론 품질’은 동일 증거를 사용했을 때 MAP 정책 대비 최종 선택 정확도의 손실로 정의된다.
LLM에 대한 평가에서는 텍스트 기반 인터페이스를 제공해 인간과 동일한 명령어와 제한을 적용했으며, 다양한 모델군(gpt‑4o mini, gpt‑5 mini, Claude, Gemini, Qwen, Llama 등)과 두 가지 CoT 조건(저추론·고추론)을 실험했다. 결과는 다음과 같다. 1) 고추론(Extended Reasoning) 조건에서 대부분의 모델이 인간 평균 수준에 도달하거나 이를 초과했지만, 이는 주로 추론 손실 감소에 기인한다. 2) 샘플링 손실은 고추론에도 불구하고 크게 개선되지 않아, 모델이 정보 획득 단계에서 인간과 다른 탐색 전략을 유지함을 시사한다. 3) ‘Invalid Choice’ 비율은 고추론 시 감소했으며, 이는 모델이 명시적 제약을 더 잘 준수하게 됨을 의미한다.
메커니즘 모델은 네 가지 잠재 변수로 구성된다. ‘Memory(β)’는 과거 관측을 얼마나 잘 보존하는가를, ‘Strategy(κ)’는 버튼 선택 시 확률적 탐색 정도를, ‘Choice Bias(ω)’는 특정 버튼에 대한 선호 편향을, ‘Occlusion Awareness(θ)’는 가려진 옵션을 회피하는 능력을 각각 정량화한다. 베이지안 최적 정책을 기준으로 각 변수의 추정값을 인간과 모델에 대해 추정한 결과, 인간은 높은 Memory와 적절한 Strategy를 보이며, 모델은 특히 Memory가 낮아 증거를 누적하는 과정에서 손실이 발생한다는 점이 드러났다. 고추론을 적용한 모델은 Memory와 Strategy 값이 인간에 근접해지지만, Occlusion Awareness와 Choice Bias에서는 여전히 차이가 남아 있다. 이는 모델이 인간과 유사한 추론 흐름을 만들면서도, 정보 획득 단계에서 가려진 옵션을 인식하거나 편향을 조정하는 능력이 부족함을 의미한다.
이러한 분석은 LLM이 CoT를 통해 내부 연산을 인간과 유사한 형태로 재구성할 수 있음을 보여준다. 그러나 ‘샘플링’ 단계, 즉 능동적인 증거 탐색 능력은 모델이 아직 인간 수준에 미치지 못한다는 점을 강조한다. 따라서 향후 연구는 샘플링 전략을 강화하는 메타‑학습 혹은 탐색‑전용 프롬프트 설계가 필요함을 시사한다.
댓글 및 학술 토론
Loading comments...
의견 남기기