칸 기반 레벨셋으로 움직이는 경계 문제를 간결하게 푸는 새로운 프레임워크
초록
본 논문은 스플라인 활성화 함수를 이용해 파라미터 수를 크게 줄인 Kolmogorov‑Arnold Network(KAN)를 레벨셋 방법과 결합해 1차원·2차원 Stefan 문제를 물리‑인포메이션 손실로 직접 학습한다. KAN은 기존 MLP‑기반 PINN에 비해 수십 배 적은 파라미터로 온도장과 이동 경계의 정확한 재구성을 달성하며, 측정 데이터 없이도 높은 정확도를 보인다.
상세 분석
본 연구는 두 가지 핵심 아이디어를 결합한다. 첫 번째는 Kolmogorov‑Arnold 정리를 기반으로 한 KAN 구조이다. KAN은 각 연결 가중치를 고정된 스칼라가 아니라 1차원 스플라인 함수로 학습함으로써 비선형성을 입력 차원별로 직접 조절한다. 이 설계는 전통적인 MLP가 갖는 스펙트럼 바이어스를 크게 완화하고, 동일한 표현력을 훨씬 적은 파라미터(수백 개)로 구현한다는 장점을 제공한다. 두 번째는 레벨셋(level‑set) 방법을 이용한 이동 경계의 암시적 표현이다. ϕ(x,t)를 부호 거리 함수로 정의하고, ϕ=0이 인터페이스를 나타내게 함으로써 다차원에서 복잡한 토폴로지 변화를 자연스럽게 다룰 수 있다.
논문은 1D와 2D Stefan 문제에 대해 물리‑인포메이션 손실(Loss)을 체계적으로 구성한다. PDE 잔차는 부드러운 마스크 함수 H_s(ϕ), H_ℓ(ϕ)로 영역을 구분해 각각의 확산 방정식을 강제한다. 인터페이스 조건은 가우시안 가중치 w_Γ(ϕ)로 좁은 밴드에 집중시켜 온도 연속성(u_s=u_ℓ=T_m)을 강제하고, Stefan 조건을 통해 얻은 정상 속도 V_n을 레벨셋 방정식 ϕ_t+F|∇ϕ|=0의 소스 항 F에 확장한다. 또한 |∇ϕ|=1을 만족하도록 Eikonal 정규화 항을 포함해 재초기화 없이 거리 함수 특성을 유지한다. 경계·초기 조건은 각각 BC, IC 손실로 약하게 적용한다.
학습 데이터는 전역 균일 샘플링과 인터페이스 근처 집중 샘플링을 병행하는 적응형 전략을 사용한다. 알고리즘 1·2는 이러한 데이터 생성 및 파라미터 업데이트 과정을 상세히 제시한다. 최적화는 AdamW와 학습률 스케줄러, 그래디언트 클리핑을 결합해 안정적인 수렴을 보장한다.
실험 결과는 두드러진 효율성을 보여준다. 1D 사례에서 KAN 기반 서브넷(
댓글 및 학술 토론
Loading comments...
의견 남기기