DeltaEvolve 모멘텀 기반 진화로 과학 발견 가속화

DeltaEvolve 모멘텀 기반 진화로 과학 발견 가속화
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 LLM 기반 진화 시스템의 컨텍스트 효율성을 개선하기 위해 전체 코드 대신 의미적 변화(semantic delta)를 저장하는 DeltaEvolve 프레임워크를 제안한다. EM 관점에서 M‑step을 최적화하고, 다중 레벨 데이터베이스와 점진적 공개 메커니즘을 통해 토큰 사용량을 크게 줄이면서도 더 높은 품질의 솔루션을 발견한다.

상세 분석

DeltaEvolve는 기존 AlphaEvolve와 같은 진화형 코딩 에이전트가 직면한 두 가지 근본적 한계, 즉 컨텍스트 윈도우의 토큰 제한과 진화적 가이드의 약함을 EM(Expectation‑Maximization) 프레임워크로 재해석한다. 여기서 E‑step은 현재 컨텍스트 Cₜ를 기반으로 LLM이 후보 프로그램을 샘플링하는 과정이며, M‑step은 누적된 평가 히스토리 Hₜ를 이용해 컨텍스트를 업데이트하는 과정이다. 기존 방법은 Hₜ를 전체 코드 스냅샷 형태로 저장해 Cₜ에 직접 삽입하는데, 이는 구현 세부사항이 핵심 알고리즘 아이디어를 희석시켜 M‑step의 학습 신호를 약화시킨다. DeltaEvolve는 이를 “semantic delta”라는 구조화된 변화 기록으로 대체한다. 각 노드 간 차이를 레벨‑1(요약)과 레벨‑2(계획 상세)로 압축하고, 레벨‑3에 전체 코드를 보관하는 피라미드형 다중 레벨 데이터베이스를 구축한다. 점진적 공개 샘플러는 현재 부모 노드만 전체 코드를 제공하고, 과거 영감 노드들은 요약 혹은 계획 상세만 노출함으로써 토큰 소비를 최소화한다. 이러한 “모멘텀” 같은 메모리는 이전 수정이 왜 성능 향상에 기여했는지를 명시적으로 전달해, LLM이 더 효과적인 변형을 생성하도록 유도한다. 실험에서는 5개 과학 도메인에 걸쳐 평균 36.79% 토큰 절감과 동시에 동일하거나 우수한 성능을 달성했으며, 특히 블랙박스 최적화 실험에서 토큰 대비 성능 곡선이 기존 방법을 크게 앞섰다. 논문은 또한 컨텍스트 최적화를 문제‑특정 프롬프트 설계와 구분하고, EM 관점에서 M‑step이 진화형 에이전트의 핵심 병목임을 강조한다.


댓글 및 학술 토론

Loading comments...

의견 남기기