휴대형 백스캐터 영상 시스템을 위한 딥러닝 이미지 품질 최적화 BSoNet

휴대형 백스캐터 영상 시스템을 위한 딥러닝 이미지 품질 최적화 BSoNet
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 휴대형 백스캐터 이미지(PBI) 시스템의 저신호·고노이즈 문제를 해결하기 위해, Transformer와 CNN을 결합한 BSformer와 해상도 적응 네트워크(RANet)를 통합한 BSoNet을 제안한다. 라벨이 없는 데이터에 Noise2Void 기반 자기지도 학습을 적용해 실시간 이미지 선명도와 대비를 크게 향상시킨다.

상세 분석

BSoNet은 휴대형 백스캐터 시스템(PBI)의 근본적인 한계인 낮은 백스캐터 광자 수와 높은 잡음 레벨을 딥러닝으로 보완한다는 점에서 의미가 크다. 핵심 모듈인 BSformer는 전통적인 CNN이 갖는 지역적 특징 추출 능력과 최신 Vision Transformer가 제공하는 전역적 종속성 모델링을 동시에 활용한다. 구체적으로, 입력 이미지는 먼저 다중 스케일 CNN 블록을 통과해 저차원 특징 맵을 생성하고, 이 특징 맵은 패치 임베딩을 통해 Transformer Encoder에 전달된다. Self‑Attention 메커니즘은 넓은 수신 영역에서 물질 대비와 경계 정보를 강화하고, 이후 Feed‑Forward 네트워크와 Residual 연결을 통해 세밀한 디테일을 복원한다. 이러한 하이브리드 구조는 백스캐터 이미지가 보이는 비정형 노이즈와 구조적 왜곡을 동시에 학습할 수 있게 한다.

RANet은 PBI가 스캔 속도·스캔 거리·전압·전류 등에 따라 이미지 해상도와 크기가 변동되는 현실적인 상황을 고려한다. RANet은 입력 이미지의 크기를 BSformer가 요구하는 고정 해상도로 리샘플링하고, 최종 출력 후에는 원본 해상도로 역변환한다. 이 과정에서 픽셀‑단위 보간 손실을 최소화하기 위해 서브‑픽셀 컨볼루션과 전이 학습된 업샘플링 모듈을 사용한다. 결과적으로 BSoNet은 다양한 현장 조건에서도 일관된 품질 향상을 제공한다.

학습 단계에서는 라벨이 없는 실제 백스캐터 데이터에 Noise2Void 기반 자기지도 학습을 적용한다. Noise2Void는 입력 이미지의 일부 픽셀을 마스크하고, 마스크된 영역을 주변 정보만으로 예측하도록 네트워크를 훈련한다. 논문에서는 여기에 추가적인 노이즈 증강(가우시안·스파이클 노이즈 혼합)을 도입해 모델이 더 복잡한 잡음 패턴에 강인하도록 설계하였다. 이러한 라벨‑프리 학습은 백스캐터 분야에서 고품질 청정 이미지 확보가 어려운 현실을 효과적으로 극복한다.

실험 결과는 PBS‑140 장비로 수집한 10,000여 장의 실제 백스캐터 이미지와 시뮬레이션 데이터에 대해 PSNR, SSIM, 그리고 인간 평가 점수에서 기존 전통적 필터(NLM, BM3D)와 최신 딥러닝 기반 DnCNN, UNet 등을 크게 앞선다. 특히 저전압·저전류 조건에서 잡음 비율이 30 % 이상인 경우에도 BSoNet은 평균 PSNR 4 dB, SSIM 0.12 정도의 개선을 달성한다.

한계점으로는 Transformer 기반 모듈이 메모리·연산 비용이 높아 실시간 적용에 하드웨어 최적화가 필요하고, 현재는 2D 평면 이미지에만 적용 가능해 3D 스캔 데이터에 대한 확장이 미비하다는 점을 들 수 있다. 향후 경량화된 ViT 변형과 3D 컨볼루션을 결합한 확장 모델 개발이 기대된다.

전반적으로 BSoNet은 백스캐터 영상의 품질을 근본적으로 개선함으로써, 국경·공항·산업 현장의 신속하고 정확한 위협 탐지에 실질적인 기여를 할 수 있는 기술적 토대를 제공한다.


댓글 및 학술 토론

Loading comments...

의견 남기기