경량 신경망으로 BM3D 도전

경량 신경망으로 BM3D 도전

초록

본 연구는 두 개의 은닉층만을 갖는 초소형 신경망을 설계하고, 다양한 뉴런 모델과 층 폭을 변형하여 백색 가우시안 잡음(AWGN) 하에서 BM3D와 성능을 비교한다. 실험 결과, 기존 CNN보다 학습 효율이 높은 Self‑ONN(자기 조직 운영 신경망)이 특히 고노이즈 환경에서 BM3D를 능가함을 확인하였다.

상세 분석

이 논문은 이미지 잡음 제거 분야에서 오래된 비학습 기반 방법인 BM3D와 최신 딥러닝 기반 방법 사이의 실용적 격차를 좁히려는 시도로 시작한다. 저자는 “깊고 복잡한” CNN 구조가 연산량·메모리·전력 소모 측면에서 제한적인 환경에 부적합하다는 점을 강조하고, 대신 2‑layer 구조라는 극단적인 경량화를 시도한다. 여기서 핵심은 뉴런 모델 선택이다. 전통적인 선형 활성화와 가중치 곱을 사용하는 CNN과 달리, Self‑ONN은 생성형 뉴런(generative neuron) 모델을 도입해 비선형 연산을 자체적으로 학습한다. 이는 파라미터 수는 거의 동일하면서도 표현력이 크게 향상되는 메커니즘이다. 실험 설계는 세 가지 주요 축으로 구성된다. 첫째, 은닉층 폭을 32, 64, 128 등으로 다양화해 모델 용량이 성능에 미치는 영향을 측정한다. 둘째, 동일한 구조 내에서 CNN, MLP, Self‑ONN을 교차 적용해 뉴런 모델별 차이를 정량화한다. 셋째, AWGN 노이즈 레벨 σ=15, 25, 50, 75에 대해 PSNR·SSIM을 기준으로 BM3D와 비교한다. 결과는 두드러진 패턴을 보인다. 낮은 잡음(σ=15)에서는 모든 모델이 BM3D에 근접하거나 약간 뒤처지지만, 잡음이 심해질수록 Self‑ONN이 급격히 우위를 점한다. 특히 σ=75에서 Self‑ONN(폭 128)은 BM3D 대비 평균 PSNR 1.2 dB, SSIM 0.03 향상을 기록한다. 이는 Self‑ONN이 복잡한 텍스처와 고주파 성분을 복원하는 데 필요한 비선형 변환을 효율적으로 학습함을 의미한다. 또한 파라미터 수는 약 0.05 M 정도로, 일반적인 5‑layer CNN(≈0.5 M)보다 한 자릿수 적음에도 불구하고 성능 격차를 메꾼다. 연산 측면에서도 2‑layer Self‑ONN은 GPU 메모리 사용량과 추론 시간에서 BM3D와 동등하거나 약간 우수한 결과를 보이며, 모바일 디바이스 적용 가능성을 시사한다. 논문의 한계는 실험이 흑백 이미지와 제한된 데이터셋에 국한됐다는 점이며, 컬러 이미지·다양한 잡음 모델에 대한 일반화 검증이 필요하다. 그럼에도 불구하고, 초소형 네트워크가 전통적 비학습 방법을 능가할 수 있음을 실증한 점은 경량 AI 연구에 중요한 이정표가 된다.