음수 없는 동형 신경망을 활용한 포토닉 뉴로모픽 가속기 설계
초록
본 논문은 광학 기반 뉴로모픽 가속기에서 음수 값을 직접 표현할 수 없는 제약을 극복하기 위해, 기존 딥러닝 모델을 음수 없이도 동일한 기능을 수행하도록 변환하는 ‘음수 없는 동형 신경망’ 방법론을 제시한다. 기존 접근법이 정확도 손실과 학습 불안정성을 보였던 문제를, 부호 보존 최적화 기법과 함께 새로운 가중치 분해·재구성 전략을 통해 해결한다. 실험 결과, 변환된 네트워크가 원본 모델과 거의 동일한 성능을 유지하면서도 포토닉 하드웨어에 적합한 비부호화 연산을 구현함을 입증한다.
상세 분석
이 논문은 광학 뉴로모픽 가속기의 핵심 제약인 ‘음수 표현 불가’를 근본적으로 해결하고자, 기존 신경망을 음수 없이도 동등한 연산을 수행하도록 변환하는 이론적·실험적 프레임워크를 제시한다. 먼저 저자는 기존의 비부호화(Non‑coherent) 포토닉 아키텍처가 전력 합산 방식으로 동작하며, 가중치와 활성값이 모두 양수일 때만 물리적으로 구현 가능함을 강조한다. 이러한 물리적 제한은 기존 딥러닝 모델을 그대로 옮길 경우, 부호를 표현하기 위한 추가 회로(예: 차동 신호, 전류 반전 회로) 도입을 강요해 면적·전력 효율을 크게 저하시킨다.
이에 대한 해결책으로 저자는 ‘음수 없는 동형(isomorphic) 변환’ 개념을 도입한다. 핵심 아이디어는 원래의 가중치 행렬 W를 두 개의 비음수 행렬 W⁺와 W⁻로 분해하고, 활성값도 동일하게 두 파트로 나누어 연산을 수행하도록 재구성하는 것이다. 수식적으로는 W = W⁺ – W⁻, x = x⁺ – x⁻ 형태로 표현되며, 최종 출력 y = W·x는 (W⁺·x⁺ + W⁻·x⁻) – (W⁺·x⁻ + W⁻·x⁺) 로 전개된다. 여기서 각 곱셈·덧셈 연산은 모두 비음수 값만을 사용하므로, 포토닉 회로에서 직접 구현 가능하다.
하지만 단순히 행렬을 분해하는 것만으로는 학습 과정에서 발생하는 기울기 소실·불안정성을 해결할 수 없었다. 이를 위해 저자는 ‘부호 보존 최적화(Sign‑preserving Optimization)’ 알고리즘을 설계한다. 이 알고리즘은 역전파 시 각 파라미터의 부호가 변하지 않도록 제약을 가하고, 손실 함수에 부호 유지 페널티를 추가한다. 또한, 가중치 초기화 단계에서 W⁺와 W⁻를 각각 정규분포가 아닌 비음수 전용 초기화(예: 절댓값 정규분포)로 설정해, 학습 초기에 부호 변동을 최소화한다.
실험에서는 CIFAR‑10, ImageNet 등 표준 이미지 분류 벤치마크와, 광학 회로 시뮬레이션을 결합한 하드웨어‑인‑더‑루프(Hardware‑in‑the‑Loop) 테스트를 수행한다. 결과는 기존 비음수 변환 기법 대비 2~3% 이상의 정확도 향상을 보였으며, 원본 모델과의 차이는 0.5% 이하에 불과했다. 또한, 변환된 네트워크는 전력 소모가 30% 감소하고, 회로 면적이 25% 축소되는 등 물리적 효율성에서도 큰 이점을 제공한다.
이러한 접근법은 단순히 ‘음수 없애기’가 아니라, 신경망 구조 자체를 포토닉 하드웨어 친화적으로 재설계함으로써, 뉴로모픽 포토닉스와 기존 딥러닝 사이의 격차를 크게 줄인다. 향후 연구에서는 더 복잡한 모델(예: 트랜스포머)이나 동적 양자화와 결합해, 실시간 영상 처리 및 엣지 컴퓨팅에 적용하는 방향이 기대된다.
댓글 및 학술 토론
Loading comments...
의견 남기기