제한된 정밀도 스파이킹 신경망 지도 학습 알고리즘

본 논문은 가중치와 시냅스 지연을 각각 3비트로 제한한 스파이킹 신경망(SNN)용 새로운 지도 학습 알고리즘 SNN/LP를 제안한다. 유전 알고리즘을 활용한 감독 학습 방식을 적용하여, 기존 연구와 동등하거나 우수한 성능을 달성하였다. 또한, 훈련된 네트워크를 프로그래머블 하드웨어에 구현함으로써 대규모 하드웨어 신경망 구현 가능성을 검증하였다.

제한된 정밀도 스파이킹 신경망 지도 학습 알고리즘

초록

본 논문은 가중치와 시냅스 지연을 각각 3비트로 제한한 스파이킹 신경망(SNN)용 새로운 지도 학습 알고리즘 SNN/LP를 제안한다. 유전 알고리즘을 활용한 감독 학습 방식을 적용하여, 기존 연구와 동등하거나 우수한 성능을 달성하였다. 또한, 훈련된 네트워크를 프로그래머블 하드웨어에 구현함으로써 대규모 하드웨어 신경망 구현 가능성을 검증하였다.

상세 요약

SNN/LP 알고리즘은 스파이킹 신경망의 핵심 파라미터인 시냅스 가중치와 전송 지연을 3비트(0~7)로 양자화함으로써 하드웨어 구현 시 메모리 사용량과 연산 복잡도를 크게 감소시킨다. 이때 양자화 오차를 최소화하기 위해 가중치와 지연을 별개의 유전 인코딩으로 표현하고, 각각에 대해 독립적인 교차·돌연변이 연산을 수행한다. 적합도 함수는 목표 출력 스파이크 시퀀스와 실제 출력 시퀀스 간의 거리(예: 스파이크 타임 거리)를 기반으로 설계되어, 시간적 정밀도를 유지하면서도 양자화된 파라미터가 학습에 충분히 기여하도록 유도한다.
알고리즘은 초기 개체군을 무작위로 생성한 뒤, 선택, 교배, 변이 과정을 반복하여 최적 해에 수렴한다. 특히, 시냅스 지연의 제한된 비트 수는 전통적인 역전파 기반 학습에서는 미분이 어려운 문제를 야기하지만, 유전 알고리즘은 이러한 비연속성을 자연스럽게 다룰 수 있다. 실험에서는 XOR, Iris, 그리고 복잡한 시계열 패턴 인식 과제에 대해 기존의 정밀도 무관 학습법(예: SpikeProp, Tempotron)과 비교했을 때, 동일한 네트워크 구조에서 3비트 제한에도 불구하고 정확도와 학습 속도 면에서 동등하거나 우수한 결과를 얻었다.
하드웨어 구현 측면에서는, 제한된 비트 수 덕분에 FPGA 상에서 가중치와 지연을 LUT(Look‑Up Table) 형태로 저장하고, 스파이크 전파 연산을 단순한 정수 연산으로 대체할 수 있었다. 이는 전력 소모와 논리 자원을 크게 절감시켰으며, 실제 프로그래머블 보드에 구현된 SNN/LP는 실시간 입력에 대해 안정적인 스파이크 응답을 보여 대규모 신경망 시스템 구축에 실용적임을 입증하였다.


📜 논문 원문 (영문)

🚀 1TB 저장소에서 고화질 레이아웃을 불러오는 중입니다...