다중에이전트 협업 적응 메모리

다중에이전트 협업 적응 메모리
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 LLM 기반 에이전트의 장기 상호작용을 지원하기 위해, 메모리를 다중 계층으로 구성하고 네 종류의 전문 에이전트(Constructor, Retriever, Judge, Refresher)가 협업하도록 설계한 AMA 프레임워크를 제안한다. 입력 의도에 따라 적절한 계층(원문, 사실, 에피소드)으로 동적으로 라우팅하고, 논리적 충돌을 감지·수정함으로써 토큰 사용량을 80% 절감하면서 기존 최첨단 방법들을 크게 능가한다.

상세 분석

AMA는 기존 외부 메모리 시스템이 갖는 “고정된 청크 크기 → 정보 손실 혹은 잡음”이라는 근본적인 한계를 극복한다는 점에서 큰 의의를 가진다. 먼저 Constructor는 대화 흐름을 원문(Raw Text), 사실(Fact Knowledge), 에피소드(Episode)라는 세 가지 계층으로 변환한다. 사실 계층은 S‑V‑O‑C 형태의 템플릿을 이용해 구조화된 트리플을 추출하고, 에피소드는 주제 전환·요청·컨텍스트 포화 시 자동 요약을 생성한다. 이러한 계층화는 의미적 연관성을 보존하면서도 검색 효율성을 높인다.

Retriever는 입력 문장을 LLM 프롬프트를 통해 독립적인 쿼리와 4‑차원 의도 벡터(


댓글 및 학술 토론

Loading comments...

의견 남기기