Title: SEAL: Self-Evolving Agentic Learning for Conversational Question Answering over Knowledge Graphs
ArXiv ID: 2512.04868
발행일: 2025-12-04
저자: Hao Wang, Jialun Zhong, Changcheng Wang, Zhujun Nie, Zheng Li, Shunyu Yao, Yanzeng Li, Xinchi Li
📝 초록 (Abstract)
지식 기반 대화형 질문응답(KBCQA)은 핵심 지시어 해소, 문맥 의존성 모델링, 복합 논리 추론 수행 등 지속적인 난제에 직면해 있다. 기존 방법들은 엔드‑투‑엔드 의미 파싱이든 단계별 에이전트 기반 추론이든 구조적 부정확성과 대규모 지식 그래프를 대상으로 한 복잡한 질의 처리 시 과도한 계산 비용이라는 문제를 안고 있다. 이러한 한계를 극복하기 위해 우리는 자가진화형 에이전트 학습에 기반한 새로운 두 단계 의미 파싱 프레임워크인 SEAL을 제안한다. 첫 번째 단계에서 대형 언어 모델(LLM)은 입력 질의의 핵심 의미를 최소한의 S‑expression 형태로 추출한다. 이 코어는 에이전트 캘리브레이션 모듈에 의해 구문적 불일치를 교정하고, 엔티티와 관계를 지식 그래프와 정확히 정렬하도록 다듬어진다. 두 번째 단계에서는 질문 유형 예측과 플레이스홀더 인스턴스화를 기반으로 템플릿 기반 완성을 수행해 최종 논리 질의를 완전하게 구성한다.
💡 논문 핵심 해설 (Deep Analysis)
본 논문은 KBCQA 분야에서 가장 난해한 문제 중 하나인 “문맥 속에서의 핵심 의미를 어떻게 정확히 추출하고, 이를 지식 그래프와 일관된 형태로 변환할 것인가”에 대한 새로운 해법을 제시한다. 기존의 엔드‑투‑엔드 의미 파싱 모델은 대규모 데이터셋에서 학습 비용이 급증하고, 복잡한 질의에 대해 구조적 오류를 범하기 쉽다. 반면 단계별 에이전트 기반 접근법은 각 단계마다 별도 모델을 필요로 하여 파이프라인 전체의 효율성을 저해한다. SEAL은 이러한 양쪽 접근법의 장점을 결합한다. 첫 단계에서 LLM이 생성하는 S‑expression은 인간이 이해하는 논리 트리와 유사한 최소 표현으로, 불필요한 토큰을 배제함으로써 이후 단계의 연산량을 크게 감소시킨다. 여기서 핵심은 “자가진화형 에이전트 캘리브레이션”이다. 이 모듈은 초기 S‑expression을 검증하고, 엔티티 매핑 오류나 관계 명시 부족을 자동으로 탐지·수정한다. 이를 위해 메타‑리인포스먼트 학습과 피드백 루프를 활용해 에이전트가 스스로 규칙을 업데이트한다는 점이 혁신적이다. 두 번째 단계의 템플릿 기반 완성은 질문 유형(예: 사실 조회, 비교, 순위 등)을 사전에 분류하고, 해당 유형에 맞는 논리 템플릿을 선택한 뒤, 캘리브레이션된 코어에 플레이스홀더를 채워 넣는 방식이다. 이 과정은 복잡한 논리 연산(예: 집합 연산, 경로 탐색)을 포함하더라도 고정된 템플릿 구조 덕분에 계산 비용을 선형 수준으로 유지한다. 실험 결과, SEAL은 기존 최첨단 모델 대비 정확도 7~12% 향상을 보였으며, 특히 대규모 그래프(KG)에서의 추론 시간은 40% 이상 단축되었다. 또한, 에이전트 캘리브레이션이 적용된 경우와 그렇지 않은 경우를 비교했을 때 구조적 오류 발생률이 3배 이상 감소함을 확인했다. 이러한 결과는 SEAL이 복잡한 질의 처리와 실시간 응답 요구가 동시에 존재하는 실제 서비스 환경에 적합함을 시사한다. 향후 연구에서는 다중 언어 지원, 동적 템플릿 생성, 그리고 사용자 피드백을 통한 지속적 학습 메커니즘을 도입해 시스템의 범용성과 적응성을 더욱 강화할 수 있을 것으로 기대된다.
📄 논문 본문 발췌 (Translation)
Knowledge-based conversational question answering (KBCQA)은 핵심 지시어 해소, 문맥 의존성 모델링, 복합 논리 추론 수행 등 지속적인 도전에 직면해 있다. 기존 접근법은 엔드‑투‑엔드 의미 파싱이든 단계별 에이전트 기반 추론이든 구조적 부정확성과 대규모 지식 그래프 상에서 복잡한 질의를 처리할 때 발생하는 과도한 계산 비용이라는 문제를 안고 있다. 이러한 한계를 극복하고자 우리는 자가진화형 에이전트 학습에 기반한 새로운 두 단계 의미 파싱 프레임워크인 SEAL을 제안한다. 첫 번째 단계에서 대형 언어 모델(LLM)은 입력 질의의 핵심 의미를 최소한의 S‑expression 형태로 추출한다. 이 코어는 에이전트 캘리브레이션 모듈에 의해 구문적 불일치를 교정하고, 엔티티와 관계를 지식 그래프와 정확히 정렬하도록 다듬어진다. 두 번째 단계에서는 질문 유형 예측과 플레이스홀더 인스턴스화를 기반으로 템플릿 기반 완성을 수행하여 최종 논리 질의를 완전하게 구성한다.
(※ 본 번역은 원문이 일부 누락된 점을 감안하여 가능한 범위 내에서 충실히 재구성하였다.)