침묵하는 학자 문제: LLM 에이전트의 인식 비대칭을 깨는 확률적 프레임워크

본 논문은 대형 언어 모델(LLM) 기반 에이전트가 외부와 일방적으로만 소통하는 ‘인식 비대칭(epistemic asymmetry)’ 문제를 지적하고, 베타-베르누이 분포와 망각 계수(γ)를 이용해 불확실성을 정량화한다. 불확실성의 분산을 동기화 신호로 삼아, 에이전트가 자체 확신을 유지하고 정보 이득을 극대화하도록 설계된 활성 학습 전략과 캐싱 메커니즘을

침묵하는 학자 문제: LLM 에이전트의 인식 비대칭을 깨는 확률적 프레임워크

초록

본 논문은 대형 언어 모델(LLM) 기반 에이전트가 외부와 일방적으로만 소통하는 ‘인식 비대칭(epistemic asymmetry)’ 문제를 지적하고, 베타-베르누이 분포와 망각 계수(γ)를 이용해 불확실성을 정량화한다. 불확실성의 분산을 동기화 신호로 삼아, 에이전트가 자체 확신을 유지하고 정보 이득을 극대화하도록 설계된 활성 학습 전략과 캐싱 메커니즘을 제안한다. 시뮬레이션 결과는 제안 방법이 Zipfian 환경과 개념 드리프트 상황에서 무작위 기준보다 월등히 우수함을 보여준다.

상세 요약

이 논문은 기존 LLM‑RAG 에이전트가 “소비자” 역할에 머무르는 구조적 한계를 ‘인식 비대칭’이라 명명하고, 이를 해결하기 위한 확률론적 기반을 제시한다. 핵심은 에이전트의 신념을 베타‑베르누이 모델 θ∼Beta(α,β) 로 표현하고, 시간에 따라 α와 β가 망각 계수 γ∈(0,1) 로 감쇠되는 점이다. 이렇게 하면 신념의 기대값 E


📜 논문 원문 (영문)

🚀 1TB 저장소에서 고화질 레이아웃을 불러오는 중입니다...