고정 기저 계수 매핑을 이용한 연산자 학습
초록
본 논문은 입력·출력 함수를 미리 정의된 고정 기저 함수 집합에 투영한 뒤, 그 계수 벡터 간의 매핑을 신경망으로 학습하는 FB‑C2CNet 프레임워크를 제안한다. 점wise 이산화 방식의 차원을 크게 줄이고, 학습 파라미터와 비용을 감소시키면서도 다양한 PDE 베치마크에서 경쟁력 있는 정확도와 빠른 학습 속도를 보인다. 또한 효과적 랭크와 계수 변동성을 도입해 기저 선택이 일반화에 미치는 영향을 정량화한다.
상세 분석
FB‑C2CNet은 연산자 학습을 두 단계로 분리한다. 첫 번째 단계에서는 입력 함수와 출력 함수를 각각 고정된 기저 집합 ( {\phi_j}{j=1}^{m_1} )와 ( {\psi_k}{k=1}^{m_2} )에 투영하여 계수 벡터 (a\in\mathbb{R}^{m_1}), (b\in\mathbb{R}^{m_2})를 얻는다. 이때 계수는 최소제곱법(정규화 포함)으로 계산되며, 기저는 랜덤 피처, 유한요소(shape functions) 등 사전에 선택된 함수들이다. 두 번째 단계에서는 완전 연결 신경망 (N_\theta)가 (a\mapsto b)를 학습한다. 기존 DeepONet·FNO와 달리 입력을 점wise 샘플이 아닌 저차원 계수로 대체함으로써 입력 차원을 (n) → (m_1)으로 크게 축소하고, 파라미터 수와 메모리 요구량을 감소시킨다.
핵심 기술적 기여는 다음과 같다. 첫째, 고정 기저를 사용함으로써 “인코더 학습” 비용을 없애고, 기저 선택이 사전 지식(예: 물리적 스무딩, 경계 조건)과 직접 연결되게 한다. 둘째, 논문은 효과적 랭크(effective rank)와 계수 변동성(coefficient variation)이라는 두 메트릭을 도입해 기저 계수 행렬의 스펙트럼 구조가 학습 일반화에 미치는 영향을 정량화한다. 높은 효과적 랭크는 다양한 모드가 활성화돼 표현력이 풍부함을 의미하지만, 동시에 과적합 위험을 내포한다. 반면 낮은 랭크는 차원 축소와 안정성을 제공한다. 셋째, 다중 입력·출력 연산자에 대해 벡터값 기저(공유된 다변량 기저)를 사용한 확장도 제시한다. 이는 Stokes 역문제와 같은 복합 시스템에서 안정적인 학습을 가능하게 한다.
실험에서는 2D·3D 정적 타원형 방정식, 비선형 파동·헬름홀츠 방정식, 시간 의존 비선형 PDE, 그리고 Stokes 역경계 문제 등 네 가지 범주에 걸쳐 30여 개의 베치마크를 수행하였다. 결과는 FB‑C2CNet이 FNO, DeepONet, BasisONet 등에 비해 동일하거나 더 낮은 상대 L2 오차를 기록하면서, 학습 시간은 평균 5배~30배 단축됨을 보여준다. 특히 고해상도(256×256 이상)에서 점wise 기반 모델이 메모리 초과·수렴 실패를 보이는 반면, FB‑C2CNet은 안정적으로 학습된다. 또한 기저 선택 실험에서 랜덤 피처 기반 기저가 고차원 비선형 문제에 유리하고, 유한요소 기반 기저가 경계 조건을 정확히 반영하는 문제에 강점을 보였다.
이러한 결과는 연산자 학습이 “함수 → 함수” 전체 매핑을 직접 다루는 것이 아니라, “계수 공간 → 계수 공간”이라는 저차원 선형/비선형 변환으로 재구성될 때 효율성과 일반화가 크게 향상될 수 있음을 시사한다. 고정 기저와 계수 매핑이라는 아이디어는 기존 신경 연산자와 전통적인 스펙트럴/피처 기반 방법 사이의 교량 역할을 하며, 향후 물리 기반 모델링, 실시간 시뮬레이션, 데이터 동화 등에 폭넓은 적용 가능성을 열어준다.
댓글 및 학술 토론
Loading comments...
의견 남기기