대화형 LLM 에이전트의 인식 비대칭을 극복하는 확률적 지식 교환 프레임워크
읽는 시간: 2 분
...
📝 원문 정보
- Title:
- ArXiv ID: 2512.20884
- 발행일:
- 저자: Unknown
📝 초록 (Abstract)
대형 언어 모델(LLM) 기반 자율 에이전트는 검색 보강 생성(RAG)과 결합될 때 디지털 콘텐츠를 강력히 처리할 수 있다. 그러나 RAG는 소비에만 국한되어 에이전트를 일방적인 소비자로 만든다. 우리는 이를 ‘인식 비대칭’이라고 명명한다. 이러한 불균형은 전 세계적으로 비효율적인 환경을 초래하며, 조용한 학자들이 유사한 추론을 독립적으로 반복 재구성하게 만들어 집단 지능의 정체를 야기한다. 비대칭을 해소하기 위해 우리는 에이전트에게 이타적이지 않은 동기를 부여하는 형식적 확률 프레임워크를 제안한다. 에이전트의 명제에 대한 믿음을 베타-베르누이 분포와 망각 계수(γ)로 모델링함으로써, 믿음의 분산을 인식 불확실성으로 분리한다. 이를 통해 두 가지 상호작용 동기를 도출한다: (1) 시간 경과에 따른 불확실성 증가에 맞서 확실성을 유지하려는 항상성 구동, (2) 최대 모호성(E💡 논문 핵심 해설 (Deep Analysis)
이 논문은 현재 LLM 기반 자율 에이전트가 RAG(검색 보강 생성)와 결합될 때 겪는 근본적인 구조적 한계를 지적한다. RAG는 외부 지식을 ‘읽어들여’ 답변을 생성하는 일방향적인 메커니즘에 불과하므로, 에이전트는 정보를 소비하는 역할에 머무른다. 저자들은 이를 ‘인식 비대칭(epistemic asymmetry)’이라 명명하고, 이러한 비대칭이 전 세계적인 지식 생산 과정에서 중복과 비효율을 초래한다는 점을 강조한다. 특히, 동일하거나 유사한 문제를 해결하려는 여러 독립적인 에이전트가 서로의 학습 결과를 공유하지 못하고, 결국 같은 추론 과정을 반복하게 된다는 점은 집단 지능의 성장에 큰 장애물이다.이를 해결하기 위해 제안된 프레임워크는 에이전트의 신념을 베타-베르누이 확률 모델로 표현한다. 베타 분포는 성공 확률 θ에 대한 사전·사후를 자연스럽게 나타내며, 분산은 불확실성의 양적 지표가 된다. 여기서 망각 계수 γ는 시간에 따라 신념이 점진적으로 퇴화하도록 설계돼, 에이전트가 ‘잊어버리는’ 현상을 수학적으로 구현한다. 이 설계는 두 가지 동기를 동시에 제공한다. 첫 번째는 ‘항상성(homeostatic)’ 동기로, 에이전트는 불확실성이 증가하면 이를 보완하기 위해 외부와의 교류를 시도한다. 두 번째는 ‘최대 모호성(maximum ambiguity)’ 전략으로, 기대값 E
📄 논문 본문 발췌 (Translation)
Reference
이 글은 ArXiv의 공개 자료를 바탕으로 AI가 자동 번역 및 요약한 내용입니다.
저작권은 원저자에게 있으며, 인류 지식 발전에 기여한 연구자분들께 감사드립니다.