대형 언어 모델을 활용한 양자 회로 생성 및 테스트 시 학습
초록
본 논문은 대형 언어 모델(LLM)을 테스트‑시간 최적화 루프에 삽입해 고정 길이 게이트 리스트를 반복적으로 수정하고, Meyer‑Wallach 전역 얽힘 지표로 평가하는 양자 회로 합성 방법을 제안한다. 메모리 기반 후보 재사용, 점수 차 피드백, 최적 후보 재시작 전략을 결합해 20‑qubit 및 25‑qubit 설정에서 성능 향상을 확인한다.
상세 분석
이 연구는 LLM을 단순 생성기가 아니라 “검증‑피드백” 루프에 통합하는 새로운 패러다임을 제시한다. 핵심 아이디어는 (i) 이전에 높은 Meyer‑Wallach(MW) 점수를 얻은 회로를 메모리 트레이스로 보관하고, (ii) 현재 회로와 이전 점수 차이를 텍스트 형태의 보상/벌점으로 프롬프트에 삽입해 모델에게 명시적인 학습 신호를 제공한다는 것이다. 이러한 점수‑차 피드백은 모델이 “얼마나 개선했는가”를 직접 인식하게 함으로써, 순수 샘플링에 비해 훨씬 효율적인 탐색을 가능하게 만든다.
또한, “restart‑from‑best” 전략을 도입해 현재 최적 후보를 새로운 초기 회로로 삼아 여러 번 재시작한다. 이는 고차원 탐색 공간에서 지역 최소점에 머무르는 현상을 완화하고, 특히 25‑qubit 규모에서 관찰된 0.48 수준의 정체 현상을 극복한다.
실험 설정은 20‑qubit와 25‑qubit 두 단계로 나뉜다. 게이트 집합은 {CNOT, H, RY}이며, RY 각도는 {3°, 7°, 25°}로 고정해 연속 파라미터 탐색을 배제한다. 회로는 고정 길이(25~45게이트) 리스트 형태로 표현되며, LLM은 텍스트 문자열을 받아 수정된 리스트를 반환한다. 반환된 문자열은 파싱 후 시뮬레이터에 입력돼 최종 상태의 MW 값을 계산한다.
20‑qubit 실험에서는 피드백 없이도 GPT‑5.1이 무작위 초기 회로보다 평균 0.5 정도의 MW 향상을 달성했으며, 35게이트에서는 완전한 MW=1에 도달하는 경우도 있었다. 그러나 성공 확률은 약 10%에 불과해 더 강력한 전략이 필요했다.
25‑qubit 실험에서는 피드백과 재시작을 결합한 GPT‑5.2가 정체 구간을 넘어 MW≈0.8~1에 이르는 회로를 꾸준히 생성했다. 특히, 초기 MW가 0.05 수준인 회로에서도 피드백이 포함된 루프는 급격히 0.77까지 끌어올렸으며, 최종적으로는 Bell 쌍과 3‑qubit GHZ를 결합한 저연결 스테빌라이저 상태를 발견했다. 일부 회로는 RY 게이트를 포함해 거의 스테빌라이저가 아닌 상태까지 생성했으며, 이는 MW 측정이 완전 연결성을 보장하지 않음을 시사한다.
이 논문은 LLM이 “메모리‑피드백‑재시작”이라는 세 가지 메커니즘을 통해 과학적 설계 문제에서 실용적인 최적화 도구로 전환될 수 있음을 실증한다. 동시에, MW와 같은 전역 지표가 회로 구조의 모든 측면을 포착하지 못한다는 한계와, 프롬프트 설계가 모델 행동에 미치는 민감성을 강조한다. 향후 연구에서는 보다 정교한 물리 기반 보상, 다중 목표(예: 깊이, 오류율) 최적화, 그리고 실제 양자 하드웨어와의 연동을 통해 LLM‑구동 설계 파이프라인을 확장할 필요가 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기