멀티턴 대화에서 의도 불일치가 초래하는 LLM의 길 잃음 현상 해결 방안

멀티턴 대화에서 의도 불일치가 초래하는 LLM의 길 잃음 현상 해결 방안
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 다중 턴 대화 시 LLM이 성능 저하를 겪는 원인을 모델의 한계가 아닌 ‘의도 정렬’ 문제로 규정한다. 사용자의 모호한 표현과 모델의 평균 사용자 가정 사이에 발생하는 의도‑실행 격차를 해소하기 위해, 경험 기반 ‘Mediator‑Assistant’ 구조를 제안한다. Mediator가 대화 이력을 활용해 사용자의 잠재 의도를 명시적이고 구조화된 지시문으로 변환하고, Assistant가 이를 수행함으로써 다중 턴 상황에서도 성능 저하를 크게 완화한다는 실험 결과를 제시한다.

상세 분석

논문은 먼저 “Lost in Conversation”(LiC) 현상을 기존 연구가 모델의 신뢰성 부족으로 설명한 점을 비판한다. 저자들은 다중 턴 대화에서 사용자가 초기에는 불완전하거나 모호한 목표를 제시하고, 이후 추적 질문을 통해 점진적으로 의도를 명확히 한다는 인간‑컴퓨터 상호작용 특성을 강조한다. 이 과정에서 LLM은 대화 컨텍스트 Cₜ만을 기반으로 응답 R을 생성하는데, Cₜ는 사용자의 깊은 의도 Iₜ를 손실된 저차원 표현 uₜ로 압축한 결과이다. 따라서 모델이 수행해야 할 과제는 두 단계로 분리될 수 있다. (1) Intent Inference: Cₜ(및 추가 히스토리 H)로부터 Iₜ를 복원하는 능력, (2) Task Execution: 복원된 Iₜ에 따라 정확히 작업을 수행하는 능력. 저자는 수학적으로 P(R|Cₜ)=∑₍Iₜ₎P(R|Iₜ)·P(Iₜ|Cₜ) 로 표현하고, 다중 턴에서 성능 저하의 주된 원인은 P(Iₜ|Cₜ) 가 높은 엔트로피를 갖는 정보 병목에 있음을 증명한다. 특히, 의도와 발화 사이의 다대일 매핑으로 인해 H(Iₜ|Cₜ) 가 크게 남아 있어 모델은 사전 학습된 평균 사용자 분포 P_avg(Iₜ|Cₜ)를 그대로 따르게 된다. 이는 모델 규모를 확대해도 P_avg가 더욱 정교해질 뿐, 개인별 의도와의 정렬은 개선되지 않음을 실험적 그래프(Figure 2)로 뒷받침한다.

이러한 이론적 고찰을 바탕으로 저자들은 “Mediator‑Assistant” 프레임워크를 설계한다. Mediator는 사용자 히스토리 H(성공·실패 대화 쌍)와 Refiner가 추출한 경험 E를 활용해, 현재 모호한 발화 uₜ를 명시적 지시문 ˆU 로 재구성한다. 즉, ˆU≈argmax_U P(U|Cₜ, H) 로서 H를 조건에 포함함으로써 H(Iₜ|Cₜ, H)≪H(Iₜ|Cₜ) 를 달성한다. 이후 Assistant는 기존 LLM 파라미터 θ를 그대로 사용해 ˆU에 대해 작업을 수행한다. 이 구조는 모델 자체를 재학습하거나 파라미터를 수정하지 않고, 입력 단계에서 정렬 오류를 사전 차단한다는 점에서 효율적이다. 실험에서는 다양한 규모의 LLM(LLaMA, GPT‑3.5 등)에 Mediator를 적용했을 때, 다중 턴 LiC 벤치마크에서 평균 30% 이상의 성능 회복을 기록했으며, 특히 사용자별 맞춤형 경험 E를 활용한 경우 회복 폭이 더욱 커졌다. 이는 의도‑실행 분리를 통한 정보 엔트로피 감소가 실제 성능 향상으로 직결됨을 입증한다.

결론적으로, 논문은 “모델이 충분히 크고 강력해도, 사용자의 모호한 의도를 정확히 추론하지 못하면 다중 턴 대화에서 길을 잃는다”는 핵심 메시지를 제시하고, 경험 기반 Mediator를 통한 의도 명시화가 현재 LLM의 실용적 한계를 극복하는 실효성 있는 해결책임을 증명한다.


댓글 및 학술 토론

Loading comments...

의견 남기기