에이전트를 위한 그래프 기반 연관 기억 시스템 GAAMA

GAAMA는 대화형 AI 에이전트의 장기 기억을 위해 에피소드, 사실, 반성, 개념 네 종류의 노드와 다섯 종류의 관계를 갖는 계층적 지식 그래프를 구축한다. 검색 단계에서는 코사인 유사도 기반 KNN과 엣지 타입을 고려한 Personalized PageRank를 결합해 구조적 연관성과 의미적 유사성을 동시에 활용한다. LoCoMo‑10 벤치마크에서 평균 보상 78.9%를 달성하며 기존 RAG 및 그래프 기반 방법들을 능가한다.

저자: Swarna Kamal Paul, Shubhendu Sharma, Nitin Sareen

본 논문은 다중 세션에 걸친 대화형 AI 에이전트가 일관된 개인화 행동을 유지하기 위해 필요한 장기 기억 문제를 해결하고자 한다. 기존의 플랫 Retrieval‑Augmented Generation(RAG) 방식은 텍스트 조각을 임베딩 유사도로만 검색해 구조적 관계를 무시한다. 반면 메모리 압축 기반 벡터 검색은 사실과 에피소드 간의 연관성을 포착하지 못한다. 이러한 한계를 극복하기 위해 저자들은 GAAMA(Graph Augmented Associative Memory for Agents)라는 시스템을 제안한다. GAAMA는 세 단계 파이프라인을 통해 계층적 지식 그래프를 구축한다. 첫 단계에서는 대화 턴을 그대로 에피소드 노드로 저장하고, NEXT 엣지를 통해 시간 순서를 명시한다. 두 번째 단계에서는 LLM을 활용해 각 에피소드에서 원자적 사실을 추출하고, 토픽 수준의 개념 라벨을 생성한다. 사실은 DERIVED_FROM 엣지로 원본 에피소드와 연결되고, 개념은 HAS_CONCEPT 및 ABOUT_CONCEPT 엣지를 통해 에피소드와 사실에 연결된다. 세 번째 단계에서는 여러 사실을 종합해 반성(reflection) 노드를 만들고, DERIVED_FROM_FACT 엣지로 지원 사실에 연결한다. 이렇게 네 종류의 노드와 다섯 종류의 엣지로 구성된 그래프는 개념 노드가 교차 경로를 제공함으로써 엔터티 중심 그래프에서 발생하는 허브 문제를 크게 완화한다. 검색 과정은 먼저 코사인 유사도 기반 KNN으로 2B개의 후보를 선정하고, 상위 k(기본 40) 노드를 시드로 삼아 Personalized PageRank를 수행한다. 엣지 타입별 기본 가중치를 정의하고, 차수가 높은 노드에 대해 가중치를 감쇠시켜 허브 효과를 억제한다. PPR 결과와 임베딩 유사도를 각각 0.1, 0.9의 비율로 선형 결합해 최종 점수를 산출한다. 후보 노드들은 유형별(사실, 반성, 에피소드)로 예산을 할당하고, 전체 단어 제한(1000단어) 내에서 높은 점수 순으로 선택된다. 최종 선택된 메모리 텍스트는 질문과 함께 답변 생성 LLM에 입력된다. 실험은 LoCoMo‑10 벤치마크(10개의 다중 세션 대화, 총 1,540 질문)에서 수행되었으며, GAAMA는 평균 보상 78.9%를 달성해 튜닝된 RAG(75.0%), HippoRAG(69.9%), A‑Mem(47.2%), Nemori(52.1%)를 모두 앞섰다. 특히 멀티홉 및 시간적 질문에서 큰 이점을 보였으며, PPR 가중치를 0.1로 낮춘 것이 성능 향상에 가장 크게 기여했다. Ablation 연구에서는 순수 의미 기반 검색 대비 그래프‑보강 검색이 전체 성능을 약 1%p 상승시킴을 확인했다. 종합적으로 GAAMA는 구조적 기억과 의미 기반 검색을 효율적으로 결합함으로써, 장기 대화 기억의 정확성, 연관성, 그리고 추론 능력을 동시에 향상시키는 실용적인 프레임워크를 제시한다.

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기