연속 함수형 보편 근사와 선형 측정 스칼라 비선형성
초록
본 논문은 힐베르트 공간의 유한 개 곱 위의 컴팩트 집합에서 정의된 연속 함수형을, 유한 개의 연속 선형 측정값과 스칼라 연속 비선형 함수를 조합한 형태로 균등하게 근사할 수 있음을 증명한다. 또한 출력이 일반 Banach 공간인 경우에도 유한 차원 근사로 확장한다. 이 결과는 연산자 학습, 이미지 복원, 신경 연산자 등에서 흔히 사용되는 “측정 → 비선형 변환 → 결합” 구조에 대한 이론적 정당성을 제공한다.
상세 분석
논문의 핵심 정리는 두 단계로 구성된다. 첫 번째 단계에서는 컴팩트성에 의존해 입력 공간을 유한 차원 부분공간 V 로 투사한다. 구체적으로, K⊂Hⁿ이 컴팩트하면 임의의 ε>0에 대해 δ를 선택하고, K를 δ/3-넷으로 덮는 유한 집합 {x^{(k)}}를 잡는다. 이 점들의 선형 스팬 V=span{x^{(k)}}는 차원이 유한하고, 모든 x∈K에 대해 ‖x−P_V x‖<δ/3이 된다. 여기서 P_V는 정규 직교 사영이다. 따라서 f(x)와 f(P_V x) 사이의 차이는 ε/3 이하로 제어된다.
두 번째 단계에서는 유한 차원 컴팩트 집합 K′=P_V(K)⊂V에 대해 고전적인 Stone‑Weierstrass 정리를 적용한다. V를 R^d와 동형시킨 뒤, ⟨t,y⟩ 형태의 선형 함수들의 지수함수(또는 사인·코사인)로 생성되는 대수 A가 K′ 위에서 조밀함을 이용한다. 결과적으로 임의의 연속 함수 F:K′→R를 ε/3 오차 이하로 근사하는 함수 T(y)=∑{j=1}^r ζ_j(⟨t_j,y⟩)를 얻는다. 여기서 ζ_j는 연속 스칼라 비선형 함수이며, ⟨t_j,y⟩는 V의 선형 형태이므로 다시 원래 공간 Hⁿ의 연속 선형 측정 ϕ{ji}와 동일시할 수 있다. 최종 근사 g(x)=T(P_V x) 은
g(x)=∑{j=1}^r ζ_j!\left(\sum{i=1}^n ϕ_{ji}(x_i)\right)
의 형태를 갖는다.
정리 1은 위 과정을 정형화하여 “선형 측정 → 스칼라 비선형 → 합산” 구조가 C(K)에서 조밀함을 보인다. 정리 2는 출력이 Banach 공간 Y인 경우를 다루며, f(K)의 컴팩트성으로부터 유한 차원 부분공간 W⊂Y를 선택하고, 좌표별로 정리 1을 적용해 y_j∈Y와 ζ_j를 결합한 유한 랭크 근사 g(x)=∑{j=1}^r y_j ζ_j(∑{i}ϕ_{ji}(x_i))를 얻는다.
이론적 기여 외에도 논문은 메트릭 엔트로피(Kolmogorov‑Tikhomirov) 관점에서 정량적 코릴러리를 제시한다. δ‑넷의 크기 N(K,δ/3)가 차원 상한이 되므로, 실제 구현에서는 측정 수와 차원 수를 데이터 복잡도와 직접 연결시킬 수 있다.
응용 섹션에서는 L² 공간 위의 적분형 함수(along with Φ(u,v) 형태), 전산단층촬영(CT) 등 선형 측정이 자연스럽게 발생하는 문제, 그리고 최근 인기를 끌고 있는 Kolmogorov‑Arnold 네트워크(KAN)와의 연관성을 논한다. 특히 KAN에서 각 엣지에 1차원 비선형 함수를 두는 구조가 본 정리의 가정과 일치함을 보여, KAN이 연속 함수형을 보편적으로 근사할 수 있는 이론적 근거를 제공한다.
전체적으로 논문은 연산자 학습과 이미지 복원 등 실용 분야에서 널리 쓰이는 두 단계 파이프라인을 함수해석적 관점에서 엄밀히 정당화하고, 기존 신경망 근사 이론(예: Cybenko, Hornik)과 연결함으로써 학계와 산업계 모두에 중요한 통찰을 제공한다.
댓글 및 학술 토론
Loading comments...
의견 남기기