뇌와 인공지능을 잇는 통합 인프라 BrainFuse
초록
BrainFuse는 생물학적 정밀성을 유지하면서 GPU 가속과 자동 미분을 지원하는 통합 시뮬레이션·학습 플랫폼이다. HH 모델 기반 38 000개의 뉴런·1억 시냅스를 단일 뉴로모픽 칩에 1.98 W 이하 전력으로 구현하고, AI 과제에서는 잡음에 강인한 시계열 처리 성능을 보여준다.
상세 분석
본 논문은 현대 인공지능 프레임워크와 전통적인 신경과학 시뮬레이터 사이의 구조적 격차를 해소하기 위해 설계된 “BrainFuse”라는 통합 인프라를 제시한다. 핵심 기술은 세 단계로 구분된다. 첫째, 알고리즘 차원에서 저자들은 Hodgkin‑Huxley(HH)와 같은 복합 미분 방정식 기반 뉴런 모델을 자동 미분 엔진에 적합하도록 새로운 이산화 스킴을 고안하였다. 이 스킴은 큰 타임스텝에서도 수치적 안정성을 확보하면서 연산량을 크게 감소시킨다. 또한, 정확한 그래디언트 유도를 위해 연쇄법칙을 활용한 미분식과 PyTorch‑compatible 연산자를 구현했으며, Triton 백엔드를 통해 GPU 레벨에서 연산을 최적화하였다. 둘째, 시스템 차원에서는 연산자 융합, 재계산(recomputation), 다항식 근사 등 GPU 특화 기법을 적용해 HH 모델의 시뮬레이션 속도를 기존 PyTorch 구현 대비 최대 3 000배 가속하였다. 이는 HH 뉴런 하나당 LIF 뉴런과 비슷한 수준의 FLOPS 요구량으로 낮추어, 대규모 네트워크 학습이 현실적으로 가능하도록 만든다. 셋째, 배포 차원에서는 C 기반 구현과 표준 인터페이스를 제공해 다양한 뉴로모픽 하드웨어(예: Loihi, SpiNNaker 등)로의 이식성을 확보하였다. 특히, 38 000개의 HH 뉴런·1억 시냅스 네트워크를 단일 칩에 구현하면서 전력 소비를 1.98 W 이하로 제한한 점은 에너지 효율 면에서 기존 시뮬레이터 대비 획기적인 진보이다. 실험 결과는 두 갈래로 나뉜다. 신경과학 측면에서는 다중 스케일 모델링과 실시간 온칩 시뮬레이션을 시연했으며, AI 측면에서는 이미지·음성·DVS·시계열 분할 등 다양한 벤치마크에서 HH 기반 스파이킹 네트워크가 LIF 기반 모델보다 잡음에 대한 강인성이 높고, 시간 정보 표현 능력이 우수함을 입증했다. 특히, HH 뉴런의 막 용량이 클수록 입력 교란에 대한 민감도가 증가한다는 물리적 해석을 통해 모델의 내재적 견고성 메커니즘을 설명한다. 전체적으로 BrainFuse는 “생물학적 정밀도 ↔ 연산 효율 ↔ 배포 유연성”이라는 삼중 목표를 동시에 달성한 최초의 플랫폼으로, 향후 바이오인스파이어드 AI와 대규모 뇌 모델링 연구에 중요한 기반이 될 것으로 기대된다.
댓글 및 학술 토론
Loading comments...
의견 남기기