가감연산을 부드럽게 연결하는 신경전달함수
본 논문은 비정수 함수 반복 개념을 이용해 가감(덧셈)과 곱셈 사이를 연속적이고 미분 가능한 방식으로 전이시키는 새로운 뉴런 전송 함수를 제안한다. 파라미터 n을 통해 각 뉴런이 수행할 연산을 0(덧셈)에서 1(곱셈) 사이에서 자유롭게 조정할 수 있으며, 이 파라미터는 표준 역전파 과정에서 학습된다. 이를 위해 실수 및 복소수 영역에서의 지수 함수의 비정수 반복을 Abel·Schröder 방정식을 통해 정의하고, 이를 기반으로 “addiplic…
저자: Sebastian Urban, Patrick van der Smagt
본 논문은 인공신경망에서 덧셈 연산과 곱셈 연산을 동시에 활용하고자 하는 기존 연구들의 한계를 지적한다. 전통적인 가산형 ANN은 가중치 합을 비선형 함수에 통과시키는 구조이며, 보편적인 근사 능력에도 불구하고 특정 함수 형태를 효율적으로 표현하려면 과도한 뉴런 수가 필요할 수 있다. 반면, 곱셈 기반 유닛은 입력을 각각 가중치 거듭제곱 형태로 변환해 곱셈을 수행하지만, 두 연산을 혼합하려면 어느 뉴런이 덧셈을, 어느 뉴런이 곱셈을 담당할지 이산적인 선택이 필요하고, 이는 별도의 최적화 절차를 요구한다.
이러한 문제를 해결하기 위해 저자들은 ‘비정수 함수 반복’이라는 수학적 도구를 도입한다. 먼저, 가역 함수 f 에 대해 n∈ℤ일 때 fⁿ은 n번 합성된 함수이며, n이 정수가 아닐 때는 정의가 필요하다. Abel 방정식 ψ(f(x))=ψ(x)+β의 해 ψ를 이용해 실수 영역에서 expⁿ(x)=ψ⁻¹(ψ(x)+n) 를 정의한다. 여기서 β=1, f=exp이며, ψ는 로그와 지수의 조합으로 구성된 연속 미분 가능 함수이다. 이 정의는 n이 실수일 때도 성립하고, n=0이면 항등함수, n=1이면 기존 exp, n=−1이면 로그가 된다.
복소수 영역에서는 exp가 비단사함수가 아니므로 Abel 방정식만으로는 충분하지 않다. 따라서 Schröder 방정식 χ(exp z)=c·χ(z) (c는 exp의 고정점) 를 사용한다. 고정점 c≈0.318132+1.33724i를 찾고, χ와 χ⁻¹를 복소수 로그와 지수의 반복을 통해 구성한다. 이때 χ는 거의 전 영역에서 정의되며, 불연속점(0, e, e² 등)을 제외하고는 연속적이다. 이렇게 정의된 χ를 이용하면 expⁿ(z)=χ⁻¹(cⁿ·χ(z)) 로 비정수 반복을 구현할 수 있다.
위의 두 정의를 바탕으로 저자들은 새로운 연산 ⊕ₙ을 제시한다. x⊕ₙy = expⁿ( exp⁻ⁿ(x) + exp⁻ⁿ(y) ) 로 정의되며, n∈
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기