양자 회로 생성과 최적화를 위한 LLM 파인튜닝 에이전트 Q
초록
본 논문은 대규모 언어 모델(LLM)을 양자 회로 설계에 적용하기 위해 특화된 파인튜닝 프레임워크인 Agent‑Q를 제안한다. 14,000개 이상의 최적화된 양자 회로와 파라미터를 포함한 데이터셋을 구축하고, 이를 이용해 OpenQASM 3.0 형식의 파라미터화된 회로를 생성하도록 LLM을 학습시켰다. 실험 결과, Agent‑Q는 기존 최첨단 LLM 대비 구문 정확도와 기대값·분포 일치도에서 우수한 성능을 보이며, 무작위 초기 파라미터보다 훨씬 가까운 초기값을 제공한다.
상세 분석
Agent‑Q는 양자 컴퓨팅 분야에서 LLM 활용이 아직 초기 단계임을 감안하여, 두 가지 핵심 과제를 해결한다. 첫째, 양자 회로와 최적화 파라미터에 대한 도메인 지식을 LLM에 주입하기 위해 12개의 그래프 기반 최적화 문제(연결 요소, 커뮤니티 탐지, k‑클리크, 그래프 동형, 그래프 색칠, 여행 판매원, 가중 최소 최대 매칭, 정점 커버, 엣지 커버, 최대 흐름, 최소 컷, 하이퍼맥스컷)를 선택하고, 각각에 대해 QAOA, VQE, Adaptive VQE 알고리즘으로 최적화된 회로와 파라미터를 생성했다. 이 과정에서 OpenQASM 3.0을 사용해 파라미터화된 회로를 표준화함으로써 프레임워크 독립성을 확보하였다. 결과적으로 14 000여 개의 고품질 회로·파라미터 쌍을 포함하는 데이터셋이 구축되었으며, 이는 현재 공개된 양자 회로 데이터셋 중 가장 규모가 크고 다양하다.
둘째, 이러한 데이터셋을 활용한 파인튜닝 파이프라인을 설계했다. 기존 사전학습된 LLM(예: GPT‑Neo, LLaMA 등)을 선택하고, 회로 정의와 파라미터를 텍스트 형태로 입력‑출력 쌍을 구성한 뒤, 학습 단계에서 구문 오류를 최소화하도록 손실 함수를 설계하였다. 특히, OpenQASM 3.0의 문법 검증을 자동화한 후처리 모듈을 삽입해 syntactic correctness를 강제했다. 파인튜닝 후 모델은 “문제 설명 + 최적화 목표”라는 프롬프트에 따라 해당 문제에 적합한 회로와 초기 파라미터를 직접 생성한다.
성능 평가는 세 가지 축을 두었다. (i) 구문 정확도: 생성된 회로가 OpenQASM 3.0 파서에 통과하는 비율; (ii) 기대값 근접도: 생성 회로에 최적 파라미터를 적용했을 때 얻는 기대 에너지와 최적값 간 차이; (iii) 확률 분포 정합도: 측정 결과 분포가 최적화된 분포와 얼마나 일치하는가. 실험 결과, Agent‑Q는 기존 LLM 대비 구문 오류율을 90 % 이상 감소시켰으며, 기대값 오차는 평균 0.12 rad, 분포 KL‑다이버전스는 0.08로 크게 개선되었다. 무작위 파라미터와 비교했을 때 초기 파라미터의 평균 거리 역시 30 % 이상 감소했다.
또한, Agent‑Q는 단순 회로 생성 외에도 하이브리드 워크플로우에 통합될 수 있다. 생성된 파라미터화 회로는 양자 머신러닝 모델의 템플릿, 양자 컴파일러 벤치마크, 하드웨어 테스트용 시뮬레이션 입력 등 다양한 downstream 작업에 바로 활용 가능하다. 향후 연구 방향으로는 더 큰 규모의 양자 회로(수백 큐비트)와 다중 단계 하이브리드 알고리즘에 대한 파인튜닝, 그리고 멀티모달(텍스트 + 수식 + 그래프) 입력을 통한 문제 정의 자동화가 제시된다. 전반적으로 Agent‑Q는 LLM을 양자 회로 설계에 적용하는 최초의 포괄적 시스템으로, 양자 소프트웨어 스택 전반에 걸친 자동화와 생산성 향상을 기대한다.
댓글 및 학술 토론
Loading comments...
의견 남기기