물리적 KAN으로 구현한 비선형 시냅스 학습
초록
본 논문은 실리콘 온 인슐레이터(SOI) 기반 ‘Synaptic Nonlinear Elements(SYNE)’를 이용해 Kolmogorov‑Arnold Network(KAN) 구조를 물리적으로 구현한다. SYNE는 전압‑전류 비선형 특성을 두 개의 튜닝 전압으로 프로그래밍할 수 있어, 전통적인 선형 가중치 기반 물리 신경망보다 적은 디바이스와 파라미터로 회귀·분류·배터리 예측 등 다양한 과제를 뛰어난 정확도로 수행한다. 실험 결과는 비선형 시냅스 자체를 학습함으로써 물리적 자원당 성능이 크게 향상됨을 보여준다.
상세 분석
이 연구는 물리 신경망 설계 패러다임을 근본적으로 전환한다. 기존 물리 신경망은 선형 가중치 배열을 학습하고, 비선형 활성화 함수는 고정된 형태(대부분 ReLU)로 사용한다. 이러한 접근은 디바이스 수와 I/O 라인 수가 급증하면서 제조 복잡도와 변동성, 잡음에 취약해 확장성이 제한된다. 저자들은 KAN 아키텍처를 물리적으로 구현함으로써 학습 대상 자체를 ‘시냅스 비선형성’으로 전환한다. SYNE 디바이스는 30 nm 두께의 SOI 위에 폴리머‑도핑을 통해 P형 도펀트를 도입하고, 20 µm 직경의 디스크 형태로 제작된다. 네 개의 전극(V_in, I_out, V_tune1, V_tune2)을 이용해 입력 전압 범위와 출력 전류를 정밀하게 조절할 수 있으며, 두 개의 튜닝 전압을 변화시켜 양의 미분 저항, 음의 미분 저항(NDR), 비단조 곡선 등 다양한 I‑V 특성을 실시간으로 재구성한다. 이러한 비선형 특성은 단일 SYNE만으로는 제한적이지만, 여러 SYNE를 병렬 연결해 KAN의 시냅스 하나를 구성하면, 각 SYNE의 파라미터(두 개의 V_tune, 이득 G, 입력 전압 최소·최대) 총 5개를 학습시켜 복합적인 비선형 함수를 근사할 수 있다.
학습 과정에서는 실험 데이터를 기반으로 만든 디지털 트윈(MLP 기반 서프라이즈 모델)을 사용해 하드웨어‑인‑루프(HIL) 방식으로 파라미터를 최적화한다. 트윈은 실제 SYNE의 I‑V 곡선을 빠르게 예측하므로, 그래디언트 기반 최적화가 가능하고, 최종 파라미터는 실제 디바이스에 전송되어 물리적 비선형성을 구현한다. 실험에서는 2 MHz 동작 속도와 0.1–1 µA 전류, ±2 V 입력 전압 범위에서 약 750 fJ의 에너지 소모를 기록했으며, 10¹³ 회 측정과 수개월에 걸친 장기 안정성도 확인했다.
성능 평가에서는 (1) 단일 비선형 함수 회귀, (2) 복합 함수 f(g(x)) 학습, (3) 이미지 기반 분류, (4) 실제 Li‑Ion 배터리 데이터 예측 네 가지 작업을 수행했다. 물리적 KAN은 동일 파라미터 수를 가진 소프트웨어 MLP 대비 최대 100배 적은 파라미터와 100배 적은 디바이스로 동등하거나 우수한 정확도를 달성했다. 특히, SYNE 두 개를 결합한 시냅스는 단일 SYNE보다 훨씬 높은 ‘Epsilon Expressivity’ 지표를 보였으며, 이는 비선형 함수 표현 능력과 직접 상관관계가 있음을 실험적으로 입증했다. 또한, 선형 가중치 기반 물리 신경망과 비교했을 때, 파라미터‑성능 스케일링이 현저히 개선되어, 디바이스 수를 크게 줄이면서도 학습 효율을 유지한다는 점을 강조한다.
이 논문은 물리적 비선형성을 학습 가능한 하드웨어 원시소재로 활용함으로써, 기존 CMOS 기반 디지털 가속기와는 다른 효율적인 컴퓨팅 패러다임을 제시한다. SYNE와 같은 재구성 가능한 비선형 소자는 향후 메모리‑컴퓨팅, 뉴로모픽 시스템, 그리고 저전력 엣지 AI에 적용될 가능성이 크다.
댓글 및 학술 토론
Loading comments...
의견 남기기