신경: 부분 합과 스파이크 네트워크 온 칩을 갖춘 저전력 재구성형 뉴로모픽 가속기

읽는 시간: 3 분
...

📝 원문 정보

  • Title: Shenjing: A low power reconfigurable neuromorphic accelerator with partial-sum and spike networks-on-chip
  • ArXiv ID: 1911.10741
  • 발행일: 2019-12-02
  • 저자: Bo Wang, Jun Zhou, Weng-Fai Wong, and Li-Shiuan Peh

📝 초록 (Abstract)

다음 세대의 장치 내 AI는 에너지 효율적인 딥 뉴럴 네트워크가 필요할 것으로 예상된다. 뇌에서 착안한 스팽킹 뉴럴 네트워크(SNN)이 유망한 후보로 식별되었다. 곱셈의 필요성을 없애는 것만으로도 에너지를 크게 절약할 수 있다. 장치 내 응용 프로그램에서는 계산뿐만 아니라 통신에도 많은 양의 에너지와 시간이 소요된다. 본 논문에서 우리는 Shenjing이라는 구성 가능한 SNN 아키텍처를 제안한다. 이는 모든 온칩 통신을 소프트웨어에 완전히 노출시키며, 저 전력에서도 높은 정확도로 SNN 모델을 매핑할 수 있게 한다. TrueNorth와 같은 이전의 SNN 아키텍처들과 달리 Shenjing은 매핑을 위해 모델 수정과 재학습이 필요하지 않다. 우리는 기존 인공 신경망(ANN)인 멀티레이어 퍼셉트론, 컨볼루셔널 뉴럴 네트워크, 그리고 최신의 잔차 네트워크를 Shenjing에 성공적으로 매핑하여 SNN의 에너지 효율성을 실현할 수 있음을 보여준다. MNIST 추론 문제에서 멀티레이어 퍼셉트론을 사용해 96%의 정확도로 10개의 Shenjing 코어를 이용하여 단 1.26mW만 소비하는 것을 달성하였다.

💡 논문 핵심 해설 (Deep Analysis)

Figure 1
This paper introduces Shenjing, a novel architecture that aims to achieve energy-efficient deep neural networks (DNNs). The primary focus is on addressing the high energy consumption of DNNs, especially in on-device AI applications where both computation and communication consume significant amounts of power. By utilizing brain-inspired spiking neural networks (SNN), which eliminate the need for multiplication operations, Shenjing significantly reduces energy usage compared to traditional artificial neural networks (ANN). Unlike previous SNN architectures such as TrueNorth, Shenjing does not require any modification or retraining of models for mapping. The architecture fully exposes all on-chip communications to software, enabling accurate and low-power model mappings without additional overheads.

The key technical contribution is the design of Shenjing’s configurable SNN framework that supports a wide range of ANN architectures including multilayer perceptrons (MLP), convolutional neural networks (CNN), and residual networks (RN). This versatility allows for efficient mapping of these models onto the Shenjing architecture, achieving high accuracy with low power consumption. For instance, in MNIST inference using MLP, Shenjing achieved 96% accuracy while consuming only 1.26mW.

The significance of this work lies in its potential to enhance on-device AI applications by providing a highly energy-efficient platform that can support various types of neural networks without compromising performance or requiring extensive retraining efforts. This makes Shenjing particularly suitable for devices with limited power resources, such as smartphones and wearable technology, where low-power consumption is critical.

📄 논문 본문 발췌 (Translation)

... **제목**: Shenjing: 저전력 재구성 가능한 뉴로모픽 가속기와 부분 합 및 스팽크 네트워크 ...

본 논문에서 제안하는 Shenjing은 에너지 효율적인 딥 뉴럴 네트워크를 위해 설계된 저전력 재구성 가능한 뉴로모픽 가속기다. Shenjing은 기존의 TrueNorth와 같은 SNN 아키텍처와는 달리, 모델 수정이나 재학습 없이도 소프트웨어 매핑을 통해 높은 정확도를 얻을 수 있다.

방법론

[[IMG_PROTECT_N]] …

실험

📸 추가 이미지 갤러리

4X3Overview.png 4X3_SNN_network.png Neuron_core_architecture.png Partial_sum_router.png add_log_tree.png ann_snn_neuron.png cnn_map.png cnn_noc.png compiler_overview.png core_map.png core_ps_spike.png core_util_size.png core_vs_links.png core_vs_utilization.png corevslink.png floorplan.png floorplan2.png fps_freq_pwr.png mlp_mnist.png network_types.png neuron_core_abstract.png resnet.png

Reference

이 글은 ArXiv의 공개 자료를 바탕으로 AI가 자동 번역 및 요약한 내용입니다. 저작권은 원저자에게 있으며, 인류 지식 발전에 기여한 연구자분들께 감사드립니다.

검색 시작

검색어를 입력하세요

↑↓
ESC
⌘K 단축키