지능은 최적화가 아니라 기하학적 재구성 메트릭 위상 분해와 불완전성
초록
본 논문은 기존 머신러닝이 최적화에만 초점을 맞추는 한계를 지적하고, 지능을 “메트릭‑위상 분해(MTF)”라는 기하학적 원리로 재정의한다. 고정된 거리 구조는 토폴로지 변형에 대해 본질적으로 불완전하며, 이는 안정성‑가소성 트레이드오프를 불가피하게 만든다. 저자들은 이를 해결하기 위해 토폴로지 정보를 별도 메모리에 저장하고, 메트릭을 동적으로 수축·전환하는 “위상 우르슈머 기계(TUM)”와 그 구현 메커니즘인 메모리‑암오티즈 메트릭 추론(MAMI)을 제안한다. 실험을 통해 TUM이 작업 순서 변화, 반사·패리티 변환 등에 강인하면서도 재학습 없이 빠르게 적응함을 보인다.
상세 분석
이 논문은 현대 딥러닝이 “고정된 표현 기하학 안에서 손실을 최소화하는 탐색”으로 지능을 정의한다는 전제를 비판한다. 저자는 고정 메트릭이 토폴로지적 변형—예컨대 작업의 순서 교환, 입력 공간의 반사, 패리티 뒤집힘—에 직면하면 필연적으로 특이점(사다리꼴)이나 메트릭 붕괴를 초래한다는 ‘기하학적 불완전성(Geometric Incompleteness)’을 정리한다. 이를 증명하기 위해 리만 다양체 위의 라그랑지안 흐름과 Morse 이론을 활용, 비정상적(Intermediate‑index) 임계점이 존재하지 않는 매끄러운 라플라시안 함수는 위상적으로 단순한 구형 구조에만 존재함을 보인다. 즉, 의미적으로 복잡한(비자명한 호몰로지 그룹을 가진) 상태공간에서는 반드시 최소 하나의 사다리꼴이 존재하므로, 순수한 ‘펀넬형’ 최적화는 불가능하다.
이러한 이론적 한계를 극복하기 위해 논문은 두 가지 요소를 분리한다. 첫째, 작업 정체성, 환경 변동 등 전역적인 구조 정보를 ‘위상(Topology)’으로 추출해 메모리에 저장한다. 둘째, 현재 작업에 맞는 로컬 거리 구조를 ‘메트릭(Metric)’으로 동적으로 수축·변형한다. 학습 과정은 메트릭 수축(metric contraction)으로 표현되며, 이는 기존 파라미터 업데이트를 대체하는 연속적인 기하학적 제어이다.
구현 측면에서 저자는 ‘위상 우르슈머 기계(TUM)’를 제안한다. TUM은 (1) 스펙트럴 작업 서명(spectral task signatures)으로 위상을 인덱싱하고, (2) ‘Riemannian Unit(RU)’이라 불리는 모듈이 사전 학습된 메트릭 변환을 빠르게 호출한다. 이 메커니즘을 ‘Memory‑Amortized Metric Inference(MAMI)’라 명명했으며, 메트릭 변환을 매번 최적화하지 않고 메모리에서 즉시 재사용함으로써 연속 학습 시 발생하는 파라미터 재조정 비용을 크게 감소시킨다.
실험에서는 (a) 작업 순서가 임의로 섞이거나 반사·패리티 변환이 적용된 CIFAR‑10/100 변형, (b) 연속 학습 벤치마크에서 EWC·MAS 등 기존 방법과 비교했을 때, TUM은 catastrophic forgetting을 거의 보이지 않으며 적은 학습 단계만으로 새로운 토폴로지에 적응한다. 이는 메트릭을 재학습하는 대신 위상 인덱스를 교체함으로써 ‘기하학적 스위칭(geometric switching)’을 수행하기 때문이다.
결론적으로, 논문은 ‘지능 = 최적화’라는 전통적 관점을 ‘지능 = 메트릭‑위상 재구성’으로 전환시킨다. 이 접근은 안정성‑가소성 딜레마를 구조적으로 해소하고, 토폴로지 변형에 강인한 일반화 능력을 제공한다. 또한, 위상‑메트릭 분해는 기존 파라미터 기반 학습이 갖는 근본적인 한계를 넘어, 메모리와 기하학을 결합한 새로운 학습 패러다임을 제시한다.
댓글 및 학술 토론
Loading comments...
의견 남기기