스파이크 호환 그라디언트를 이용한 스팽킹 뉴럴 네트워크의 적대적 공격 탐구
📝 원문 정보
- Title: Exploring Adversarial Attack in Spiking Neural Networks with Spike-Compatible Gradient
- ArXiv ID: 2001.01587
- 발행일: 2020-10-02
- 저자: Ling Liang, Xing Hu, Lei Deng, Yujie Wu, Guoqi Li, Yufei Ding, Peng Li, Yuan Xie
📝 초록 (Abstract)
최근에 SNNs(Spiking Neural Networks)의 성능을 향상시키기 위해 시간을 통한 역전파(backpropagation through time)를 기반으로 한 학습 알고리즘들이 널리 도입되어, 공간-시간 경사도 맵을 이용해 모델을 정확하게 공격할 수 있는 가능성이 생겼습니다. 본 논문에서는 그래디언트 입력 호환성과 그래디언트 사라짐 문제를 해결하기 위한 두 가지 접근법을 제안합니다. 구체적으로, 연속적인 그래디언트를 스파이크 입력에 호환되는 3가지 수준의 그래디언트로 변환하는 그래디언트-스파이크 변환기와 모든 그래디언트가 0일 때 주어진 전환율로 스파이크 입력을 임의로 뒤집는 그래디언트 트리거를 설계했습니다. 이러한 방법들을 결합하여, 감독 학습 알고리즘으로 훈련된 SNNs에 대한 적대적 공격 메소드를 구축했습니다. 또한 교차 엔트로피 손실 하에서 발생하는 "상황의 함정" 영역을 임계값 조절을 통해 피할 수 있음을 분석하였습니다. 다양한 실험을 통해 제안된 해법의 유효성을 검증했으며, ANNs보다 SNNs가 적대적 공격에 더 강건하다는 것을 입증했습니다. 이 연구는 SNN 공격에서 무엇이 일어나는지 밝히고, SNN 모델과 뉴로모픽 장치의 보안에 대한 추가 연구를 촉진할 수 있습니다.💡 논문 핵심 해설 (Deep Analysis)
This paper delves into the realm of Spiking Neural Networks (SNNs), presenting a detailed approach to implementing adversarial attacks on these models and analyzing their vulnerabilities. SNNs simulate brain-like neural activity for processing information, but recent advancements have made them susceptible to adversarial attacks that can significantly degrade performance or yield incorrect results.The authors propose two key innovations: the Gradient-to-Spike Converter (GSC) and the Gradient Trigger (GT). The GSC transforms continuous gradients into ternary ones compatible with spike inputs, while the GT randomly flips spike inputs at a controlled turnover rate when all gradients are zero. These mechanisms enable the execution of adversarial attacks on SNNs trained using supervised learning algorithms.
Experimental results validate the effectiveness of these methods, revealing that under cross-entropy loss, there exists a “trap” region which can be mitigated by tuning the firing threshold of the penultimate layer. The study also highlights that SNNs are more robust against adversarial attacks compared to Artificial Neural Networks (ANNs).
Understanding and addressing these vulnerabilities is crucial for enhancing the security and reliability of SNN models and neuromorphic devices, paving the way for future research in this field.