신경 부호의 불확정성 원리 위치와 속도는 발화율과 공동발화율에 동시에 매핑
초록
이 논문은 해마계 신경 집단이 위치와 속도 정보를 각각 발화율(R)과 공동발화율(R′)이라는 두 개의 상보적인 코드에 동시에 담을 수 있음을 보인다. R은 개별 뉴런의 스파이크 간격으로, R′은 서로 다른 뉴런 사이의 스파이크 간격으로 정의된다. 두 코드는 물리학의 불확정성 원리와 유사한 트레이드오프 관계에 있지만, 위치와 속도라는 쌍대 변수는 서로 경쟁하지 않아 두 코드에 동시에 고효율로 인코딩된다. 저자는 sigma 디코더와 sigma‑chi 디코더를 제안해 각각 R과 R′을 해독하고, 헤드‑디렉션 셀·그리드 셀, 그리고 속도 셀 모델을 통해 시뮬레이션 결과를 제시한다. 결과는 신경 집단이 동일한 정보를 서로 다른 방식으로 배분할 수 있음을 시사한다.
상세 분석
본 연구는 신경 부호화에서 “발화율(R)과 공동발화율(R′)이라는 두 차원의 정보 채널이 존재한다”는 가설을 수학적으로 정형화하고, 이를 물리학의 불확정성 원리와 유사한 형태의 트레이드오프 관계로 표현한다. R은 한 뉴런 내부에서 연속적인 스파이크 사이의 시간 간격(즉, ISI)으로 정의되며, 전통적인 평균 발화율과 동일시될 수 있다. 반면 R′은 서로 다른 뉴런 쌍 사이에서 발생하는 스파이크 동시성 혹은 상관관계를 측정하는 지표로, 두 뉴런 간의 공동발화율이라고 부른다. 두 채널은 서로 직교하는 정보 공간을 형성한다는 점에서 ‘공액(conjugate)’이라는 용어가 적절히 사용된다.
논문은 먼저 정보 이론적 관점에서 R과 R′이 동시에 최대 정보를 전달할 수 없으며, 한 채널에 정보를 집중하면 다른 채널의 엔트로피가 감소한다는 수식을 제시한다. 이는 푸리에 변환에서 시간과 주파수가 서로 공액 관계에 있는 것과 직접적인 유사성을 가진다. 그러나 위치와 속도라는 물리적 변수는 서로 미분 관계에 있기 때문에, 하나의 변수는 R에, 다른 변수는 R′에 독립적으로 매핑될 수 있다. 즉, 위치 정보는 개별 뉴런의 발화율 튜닝(예: 그리드 셀의 공간 주기성)으로, 속도 정보는 뉴런 간의 동시성(예: 속도 셀의 위상 차)으로 각각 최적화될 수 있다.
두 가지 디코딩 방법인 sigma 디코더와 sigma‑chi 디코더는 각각 R과 R′을 추출하는 알고리즘이다. sigma 디코더는 전통적인 베이즈 혹은 선형 회귀 방식으로 개별 뉴런의 발화율을 집계해 위치 혹은 속도를 추정한다. sigma‑chi 디코더는 뉴런 쌍 사이의 공동발화율을 계산한 뒤, 이를 기반으로 변수의 미분 형태(속도) 혹은 적분 형태(위치)를 복원한다. 시뮬레이션에서는 헤드‑디렉션(HD) 셀과 그리드 셀을 이용해 R에 위치가 강하게 튜닝된 경우 sigma 디코더가 정확히 위치를 복원하고, sigma‑chi 디코더가 속도를 복원함을 확인했다. 반대로, theta‑modulated “speed cells”에서는 R′에 위치가 튜닝되어 sigma‑chi 디코더가 위치를, sigma 디코더가 속도를 복원했다.
핵심 통찰은 두 코드가 완전히 독립적인 것이 아니라, 신경 회로의 구조와 셀 타입에 따라 정보가 어떻게 배분되는가에 따라 서로 보완적인 역할을 한다는 점이다. 이는 기존에 속도 셀과 위치 셀을 별개의 기능군으로 구분하던 관점을 넘어, 동일한 신경 집단이 동일한 물리량을 서로 다른 차원(R vs R′)에서 동시에 인코딩할 수 있음을 시사한다. 또한, 뇌가 제한된 스파이크 자원을 효율적으로 활용하기 위해 “정보의 공액 배분” 전략을 사용한다는 가설을 제시한다.
이러한 프레임워크는 향후 신경 기록 데이터에서 공동발화율을 정량화하고, 다중 스케일 정보 흐름을 해석하는 새로운 분석 도구를 제공한다. 또한, 인공 신경망 설계 시 발화율과 공동발화율을 별도 채널로 활용해 연속적인 변수(위치·속도·가속도 등)를 동시에 학습시키는 메커니즘을 고안할 수 있는 이론적 기반이 된다.
댓글 및 학술 토론
Loading comments...
의견 남기기