분포 기반 제약형 양자 머신 언러닝
초록
본 논문은 양자 변분 분류기에서 특정 클래스를 삭제할 때, 균일 목표 분포 대신 모델이 원래 예측한 유사도 정보를 이용해 가중된 목표 분포를 설계하고, 보존하고자 하는 데이터에 대한 앵커 제약을 추가함으로써 잊혀진 클래스의 신뢰도를 급격히 낮추면서 보존 클래스의 성능 저하를 최소화하는 새로운 클래스‑레벨 양자 머신 언러닝 프레임워크를 제안한다. Iris와 Covertype 데이터셋 실험을 통해 기존 균일‑타깃 방식보다 재학습 모델에 더 가까운 결과를 얻음이 확인되었다.
상세 분석
이 연구는 양자 머신 언러닝(QMU)의 핵심 문제인 “잊혀진 데이터의 영향 제거와 보존 데이터의 행동 유지”를 수학적으로 명시적인 제약 최적화 문제로 전환한다. 기존 연구들은 주로 잊혀진 클래스에 대해 확률을 0으로 만들고 나머지 클래스를 균등하게 재분배하는 방식(Uniform‑Target)을 사용했으며, 이는 특히 복잡한 데이터셋에서 보존 클래스 간의 의미적 관계를 무시한다는 한계가 있었다. 저자들은 이를 개선하기 위해 (1) 분포‑가이드 타깃(q) 을 도입한다. q는 잊혀진 클래스 샘플 집합 S에 대해 원래 모델이 출력한 소프트맥스 평균을 기반으로 하며, 지수 파라미터 β를 통해 재분배의 날카로움을 조절한다. 이렇게 하면 원래 모델이 “유사하게” 예측했던 클래스에 더 많은 확률 질량이 할당되어 의미적 일관성을 유지한다. (2) 앵커 제약을 도입한다. 보존 데이터 집합 A에 대해 원래 모델의 출력 p₍wₒᵣᵢg₎(·|x)를 레퍼런스로 저장하고, 학습 과정에서 KL 발산을 최소화하도록 함으로써 보존 데이터에 대한 예측 분포를 그대로 유지한다. (3) 파라미터 정규화 항을 추가해 원래 파라미터 wₒᵣᵢg와의 L2 거리 제한을 부과한다. 최종 목적함수 J(w)=L_F(w)+αL_A(w)−λ‖w−wₒᵣᵢg‖²는 Lagrangian 형태로 해석될 수 있으며, 이는 “목표 분포에 대한 적합도 최대화 + 앵커 KL 제약 ≤ ε + 파라미터 거리 제한 ≤ ρ”라는 제약 최적화와 동등함을 정리 1에서 증명한다. 최적화는 파라미터‑시프트 규칙을 이용한 그라디언트 상승 방식으로 수행되며, 양자 회로 파라미터가 직접 업데이트된다. 실험에서는 6‑qubit 변분 회로(72 파라미터)와 데이터 재업로드 방식을 사용했으며, 시뮬레이터 환경에서 노이즈 없이 평가했다. 결과는 (i) 잊혀진 클래스에 대한 신뢰도가 거의 0에 수렴, (ii) 보존 클래스 정확도는 1% 미만 감소, (iii) 재학습 모델과의 출력 분포 차이가 기존 균일‑타깃 방식보다 현저히 작음을 보여준다. 특히 Covertype와 같이 차원 수가 높고 클래스 간 경계가 복잡한 경우, 분포‑가이드 타깃이 균일 재분배보다 훨씬 안정적인 성능을 제공한다. 이와 같이 제안된 프레임워크는 양자 회로의 파라미터 공간에서 국소적인 업데이트만으로도 효과적인 언러닝을 달성하며, 물리적 제약(CPTP 맵)과도 일관성을 유지한다는 점에서 실용적이다.
댓글 및 학술 토론
Loading comments...
의견 남기기