파라미터 효율적인 스프레처 기반 콜모고로프 아놀드 네트워크 GSKAN
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.
초록
본 논문은 콜모고로프‑아놀드 정리를 활용한 KAN 모델의 파라미터 비효율성을 스프레처 정리의 아이디어로 해결한다. 레이어당 하나의 학습 가능한 B‑스플라인을 공유하고, 각 엣지는 선형 스케일·시프트 변환을 통해 개별 함수를 생성한다. 실험 결과, 합성 함수 근사, 탭ular 회귀, 이미지 분류에서 기존 KAN과 MLP를 능가하면서 파라미터 수는 MLP 수준으로 감소한다.
상세 분석
GS‑KAN은 기존 KAN이 각 엣지마다 독립적인 유니버설 함수(보통 B‑스플라인)를 학습하도록 설계된 점을 근본적으로 재구성한다. 스프레처 정리에서 제시된 “단일 내부 함수와 외부 함수의 공유” 개념을 확장하여, 레이어당 하나의 마스터 함수 ψl 를 학습하고 이를 λp,q·ψl(xp+ϵq) 형태의 선형 변환으로 각 엣지에 적용한다. 이때 λp,q와 ϵq는 각각 엣지별 가중치와 노드별 시프트 파라미터로, 모두 학습 가능한 스칼라이다. 결과적으로 파라미터 복잡도는 O(Nin·Nout)+C 로, C는 스플라인 계수 수에 불과해 MLP와 동일한 차수로 축소된다.
수학적으로는 기존 KAN의 식 yq=∑p φq,p(xp) 를 yq=∑p λp,q·ψl(xp+ϵq) 로 대체함으로써, φq,p 를 ψl 의 선형 변환으로 근사한다. 이는 스플라인 자체가 충분히 유연하기 때문에, 다양한 비선형 형태를 표현할 수 있음을 의미한다. 또한, 정적 도메인
댓글 및 학술 토론
Loading comments...
의견 남기기