TFHE 기반 효율적인 암호화 스파이킹 신경망 구현
본 논문은 TFHE 스킴을 활용해 이산 스파이킹 신경망(CSNN)을 완전 동형 암호 환경에서 구현한다. LIF 뉴런의 Fire·Reset 연산을 부트스트래핑 기반 함수로 변환하고, 가중치를 정수화·스케일링하여 암호화 가능한 형태로 만든다. 컨볼루션 레이어와 평균 풀링을 이산화하고 다중 스케일링 기법으로 나눗셈을 회피한다. 실험 결과 MNIST·FashionMNIST에서 3 % 이하 정확도 손실과 1 초 미만 추론 시간을 달성했으며, 의료 영상에…
저자: Longfei Guo, Pengbo Li, Ting Gao
본 연구는 Fully Homomorphic Encryption(FHE)의 대표 스킴인 TFHE를 기반으로, 이산 스파이킹 신경망(Convolutional Spiking Neural Network, CSNN)의 암호화 연산을 실현하는 프레임워크 FHE‑DiCSNN을 제안한다. 기존 FHE‑기반 머신러닝은 덧셈·곱셈 외의 비선형 함수 구현이 어려워 ReLU·Sigmoid와 같은 활성함수를 근사하거나 복잡한 부트스트래핑을 필요로 했다. 반면, 스파이킹 뉴런은 스파이크라는 이산 신호만을 출력하므로, FHE가 지원하는 정수 연산과 자연스럽게 매칭된다.
논문은 먼저 TFHE의 프로그래머블 부트스트래핑 메커니즘을 소개한다. 부트스트래핑은 LWE 암호문 (a,b)에 대해 임의 함수 g를 적용해 새로운 암호문 LWE(g(m))을 생성하면서 노이즈를 초기화한다. 여기서 g는 g(x)=−g(p/2+x) 성질을 만족해야 하며, 이는 부호 함수(Sign)와 동일하게 동작한다. 저자는 LIF(Leaky Integrate‑and‑Fire) 뉴런의 Fire 연산을 Sign 함수로 대체하고, Reset 연산을 정수 스케일링을 포함한 조건부 연산으로 재정의한다. 이를 통해 LIF 뉴런의 전압 업데이트와 스파이크 발생을 모두 부트스트래핑 가능한 형태로 변환한다.
다음으로, CSNN의 구조적 요소를 이산화한다. 가중치와 편향은 고정소수점 스케일링 θ를 곱해 정수화하고, Zₚ 링에 매핑한다. 컨볼루션 레이어는 3×3 커널, stride 1, padding 1을 사용해 입력 이미지의 공간적 특징을 추출하고, 평균 풀링(2×2, stride 2)으로 차원을 축소한다. 평균 풀링에서 발생하는 나눗셈은 직접 구현이 불가능하므로, 스케일링 팩터를 θ/n(여기서 n은 풀링 윈도우 크기)으로 조정해 정수 연산만으로 동등한 효과를 얻는다. 이렇게 다중 스케일링을 적용하면 부트스트래핑 과정에서 발생할 수 있는 정밀도 손실을 최소화하면서도 연산 흐름을 유지할 수 있다.
학습 단계에서는 기존 ANN‑to‑SNN 변환 방식과 유사하게, 비지도 Poisson 인코딩을 사용해 입력 이미지를 스파이크 시퀀스로 변환한다. 각 타임스텝 t마다 입력 전류 I
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기