신경 연산자를 위한 무한 차원 인코딩·디코딩 정리의 일반화

신경 연산자를 위한 무한 차원 인코딩·디코딩 정리의 일반화
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 연속 매핑에 대해 함수공간 사이의 유한 차원 인코딩·디코딩 정리가 어떠한 가정도 필요 없이 모든 국소 볼록 공간에서 성립함을 보이고, C^k 매끄러운 경우에는 입력 공간이 근사성질(approximation property)을 가질 때에만 동일한 정리가 성립한다는 필요충분조건을 제시한다. 이는 신경 연산자 모델링에 비노름형 함수공간을 적용할 수 있게 한다.

상세 분석

논문은 최근 신경 연산자(neural operator) 네트워크가 무한 차원 선형 연산자를 포함하면서 미분방정식의 해를 학습하는 데 활용된다는 배경에서 시작한다. 실용적인 계산을 위해서는 입력·출력 함수공간 E, F 사이의 연속 사상 f를 두 유한 차원 Banach 공간 E₁≈ℝ^m, F₁≈ℝ^n을 매개로 하는 S∘g∘T 형태로 근사해야 한다. 기존 연구(Kovachki et al., 2023)는 E, F가 근사성질(approximation property, AP)을 갖는 Banach 공간일 때만 이러한 정리를 증명했다.

첫 번째 주요 결과(Theorem 1.1)는 E, F가 어떠한 국소 볼록(topological locally convex) 공간이든 연속 사상 f가 위와 같은 형태로 임의의 콤팩트 집합 K⊂E와 ε>0에 대해 균일 수렴하게 근사될 수 있음을 보인다. 증명은 크게 두 단계로 나뉜다. (1) E와 F가 노름공간일 경우, Banach–Mazur 정리를 이용해 각각을 C


댓글 및 학술 토론

Loading comments...

의견 남기기