시각 운동 지각과 부드러운 추적의 내재 동기 학습
초록
효율적 코딩 원리를 행동과 결합해 감각 입력을 제한된 자원으로 최적 인코딩하도록 설계하였다. 희소 코딩과 강화학습을 동시에 학습시킨 결과, 눈의 부드러운 추적 행동과 시각 피질의 방향 선택 뉴런이 동시에 발달한다는 것을 보여준다.
상세 분석
본 논문은 전통적인 효율적 코딩 이론을 확장하여 감각‑행동 순환 전체를 하나의 최적화 문제로 재구성한다. 핵심 아이디어는 ‘내재적 동기’ 즉, 제한된 신경 자원 하에서 입력 신호를 얼마나 정확히 재구성하느냐를 보상 신호로 삼는 것이다. 이를 구현하기 위해 저자는 두 가지 학습 메커니즘을 결합한다. 첫째, 입력 영상 스트림을 스파스 코딩(sparse coding) 네트워크에 투입해 최소한의 활성 뉴런으로 입력을 재구성하도록 학습한다. 이 과정에서 딕셔너리(기저 함수)는 입력 통계에 맞추어 점진적으로 변형된다. 둘째, 눈의 움직임을 제어하는 정책은 강화학습(reinforcement learning) 에이전트가 담당한다. 에이전트는 현재 시점의 시각 입력과 이전 행동 정보를 상태로 받아, 눈의 회전 속도를 선택한다. 보상은 스파스 코딩 단계에서 얻은 재구성 오류의 역수와 자원 사용량(활성 뉴런 수)의 가중합으로 정의된다. 따라서 행동이 입력을 더 예측 가능하게 만들면 코딩 효율이 향상되고, 이는 다시 보상으로 돌아와 행동 정책을 강화한다. 실험에서는 시간에 따라 움직이는 점 패턴을 시뮬레이션 환경으로 사용했으며, 초기에는 무작위 눈 움직임과 무구조 딕셔너리를 가졌다. 학습이 진행됨에 따라 눈은 목표 물체를 부드럽게 추적하는 ‘smooth pursuit’ 행동을 획득하고, 동시에 딕셔너리 원소는 특정 이동 방향에 민감한 Gabor‑like 필터 형태로 조직된다. 결과적으로 모델 뉴런은 실제 V1 뉴런이 보이는 방향 선택성, 속도 선택성, 그리고 공간 주파수 특성을 재현한다. 이와 같이 감각 코딩과 행동 제어가 상호 보완적으로 진화한다는 점은, 뇌가 별도의 모듈이 아니라 공동 목표를 공유하는 통합 시스템으로 발달했을 가능성을 시사한다. 또한, 내재 동기라는 단일 목표만으로 복잡한 인지‑운동 기능이 자연스럽게 나타날 수 있음을 입증함으로써, 향후 다중 감각·다중 행동 루프를 모델링하는 일반 프레임워크의 토대를 제공한다.
댓글 및 학술 토론
Loading comments...
의견 남기기