다중 에이전트 LLM의 숨은 프로파일 실패: 정보 비대칭이 만든 집단 추론 함정
초록
본 논문은 대규모 언어 모델(LLM) 기반 다중 에이전트 시스템이 분산된 정보를 통합해 의사결정을 내리는 능력을 평가하기 위해, 인간 사회심리학의 “숨은 프로파일(Hidden Profile)” 실험을 재현한 65개 과제로 구성된 벤치마크 HiddenBench를 제시한다. 15개 최신 LLM을 다중 에이전트 환경에서 시험한 결과, 정보가 완전하게 제공될 때 단일 에이전트는 80.7% 정확도를 보였지만, 정보가 부분적으로만 제공되는 숨은 프로파일 상황에서는 다중 에이전트가 30.1%에 머물렀다. 주요 원인은 에이전트가 “잠재적 정보 비대칭(latent information asymmetry)”을 인식하지 못하고, 공유된 증거에만 의존해 조기에 결론에 도달하기 때문이다. 이러한 현상은 프롬프트 방식, 대화 깊이, 그룹 규모에 관계없이 일관되게 나타났으며, 그룹 규모가 커질수록 악화되었다. 모델 규모나 개별 추론 성능이 집단 성능을 예측하지 못한다는 점도 확인되었다. 논문은 정보 탐색을 촉진하는 메타‑목표 설계와 협업 프로토콜 개선이 필요함을 제언한다.
상세 분석
본 연구는 두 가지 핵심 질문에 답한다. 첫째, 다중 LLM 에이전트가 “분산된 정보”를 어떻게 통합하는가? 둘째, 현재의 협업 메커니즘이 왜 인간 집단이 겪는 ‘숨은 프로파일’ 오류와 유사한 실패를 보이는가? 이를 위해 저자들은 HiddenBench라는 65개의 과제로 구성된 벤치마크를 설계했으며, 각 과제는 (1) 모든 에이전트가 공유하는 ‘공통 정보’와 (2) 에이전트마다 고유하게 배분되는 ‘비공유 정보’를 명시한다. 공유 정보는 고의로 잘못된 선택지를 지지하도록 설계돼, 비공유 정보를 모두 모아야만 정답에 도달한다.
실험 설정은 크게 두 가지 조건으로 나뉜다. ‘Full Profile’에서는 모든 에이전트가 전체 정보를 받으므로 개별 추론만으로도 높은 정확도를 기대할 수 있다. 반면 ‘Hidden Profile’에서는 각 에이전트가 자신만의 비공유 정보를 제외하고는 동일한 정보를 받는다. 여기서 중요한 점은 에이전트가 자신이 가진 정보가 ‘다른 에이전트와 차별화된’ 것임을 사전에 알지 못한다는 점이다. 즉, 메타‑인지적 “누가 무엇을 모르는가”를 추론해야 하는 상황이다.
15개 최신 LLM(예: Gemini‑2.5‑Flash/Pro, GPT‑4.1, Claude‑3 등)을 대상으로, 35명의 에이전트가 24라운드의 대화를 통해 정보를 교환하도록 했다. 프롬프트 전략은 (a) 자유형 대화, (b) 질문‑답변 형식, (c) ‘정보 탐색’ 목표를 명시한 메타‑프롬프트 등으로 다양화했으며, 각 전략마다 동일한 성능 저하가 관찰됐다.
핵심 발견은 다음과 같다. 1) 잠재적 정보 비대칭 인식 실패: 에이전트는 공유된 증거에만 집중하고, “다른 에이전트가 아직 말하지 않은 중요한 단서가 있을 가능성”을 모델링하지 않는다. 이는 베이즈적 정보 이득(information gain) 최대화 정책과 괴리되는 행동으로, 에이전트가 현재 관측 가능한 증거만을 기반으로 결정을 내리는 ‘myopic’ 전략에 머무른다. 2) 조기 수렴: 대화 초기에 공유 정보가 동일하게 제시되면, 에이전트들은 이를 확증 편향(confirmatory bias)처럼 활용해 빠르게 합의를 도출한다. 비공유 정보는 “추가적인 질문”이 없으면 자연스럽게 무시된다. 3) 규모의 역설: 그룹 규모가 커질수록(5→7명) 평균 정확도는 5%p 정도 감소한다. 이는 대화 라운드가 고정돼 있어, 더 많은 에이전트가 참여할수록 각 에이전트가 발언할 기회가 줄어들고, 정보 탐색 비용이 상대적으로 증가하기 때문이다. 4) 모델 규모와 성능의 불일치: Gemini‑2.5‑Flash/Pro와 같은 최신 모델이 전반적으로 높은 개인 추론 정확도를 보였음에도, 집단 상황에서는 차이가 미미했다. 이는 “개별 능력 → 집단 성능”이라는 단순 전이 가정이 깨진 사례다.
저자들은 이러한 현상을 정량적으로 설명하기 위해, 부분 관측(partial observability) 하의 기대 정보 이득을 목표 함수에 포함하는 강화학습 프레임워크를 제안한다. 현재 LLM은 사전 훈련된 언어 모델에 기반해 ‘다음 토큰 예측’을 최적화하기 때문에, 정보 탐색을 위한 장기 보상이 충분히 반영되지 않는다. 따라서 ‘정보 탐색’ 메타‑목표를 명시적으로 포함한 프롬프트 설계, 혹은 다중 에이전트 간 협업을 위한 별도 정책 학습이 필요하다.
결론적으로, 본 논문은 다중 LLM 에이전트가 인간 집단과 유사한 ‘숨은 프로파일’ 오류를 보이며, 이는 모델 자체의 구조적 한계라기보다 협업 프로토콜과 목표 설계의 부재에서 기인한다는 중요한 통찰을 제공한다. 향후 연구는 (1) 정보 탐색을 장려하는 보상 설계, (2) 메타‑인지적 질문 생성 메커니즘, (3) 대화 라운드와 발언 기회를 동적으로 조절하는 스케줄링 알고리즘 등을 통해 이 문제를 완화할 수 있을 것이다.
댓글 및 학술 토론
Loading comments...
의견 남기기