동적 3D 측정을 위한 딥러닝 기반 프린지‑투‑프린지 변환 기술
초록
본 논문은 동적 물체의 3차원 형상 측정에서 필수적인 위상 복원을, 다수의 프린지 영상을 요구하는 기존 방식 대신 단일(또는 두 개) 프린지만으로 수행할 수 있도록 설계된 end‑to‑end 딥 컨볼루션 신경망을 제안한다. 제한된 깊이 범위에서는 단일 프린지만으로, 깊이 제한이 없을 경우 두 개의 프린지를 입력으로 사용해 고정밀 위상 정보를 복원한다. 이 방법은 이론적 분석과 시뮬레이션·실험을 통해 동적 3‑D 측정에 적용 가능함을 입증한다.
상세 분석
이 연구는 프린지 투영 프로파일러(FPP)의 핵심 과제인 위상 회복을 딥러닝으로 대체함으로써, 동적 상황에서 발생하는 모션 블러와 프린지 수집 시간 증가 문제를 근본적으로 해결하고자 한다. 기존의 위상 추출 기법은 다중 프린지(보통 3~5개) 혹은 연속적인 위상 이동 기법을 필요로 하며, 이는 고속 움직이는 물체에 대해 시간 지연과 샘플링 오류를 초래한다. 논문은 이러한 제약을 극복하기 위해 프린지‑투‑프린지 변환 네트워크(F2F‑Net)를 설계하였다. 네트워크는 입력 프린지 영상을 직접 위상 맵으로 매핑하는 것이 아니라, 중간 단계에서 “위상 복구에 필요한 프린지”를 생성하도록 학습한다. 즉, 단일 프린지 입력 시 네트워크는 목표 깊이 범위 내에서 물체 표면을 충분히 표현할 수 있는 가상의 프린지 시퀀스를 합성하고, 이를 기존 위상 해석 알고리즘(예: 4‑step PS, FFT 기반 방법)과 결합해 최종 위상을 얻는다.
제한된 깊이 구간(예: ±5 mm)에서는 물체 표면이 프린지 주기의 변동 범위 내에 머무르므로, 단일 프린지만으로도 충분히 정보를 복원할 수 있다. 이 경우 F2F‑Net은 입력 프린지의 위상 변조 정보를 보강해 가상의 두 번째 프린지를 생성한다. 반면, 깊이 제한이 없을 경우 두 개의 프린지를 입력으로 받아 각각에 대한 보정 프린지를 출력함으로써, 전통적인 다프린지 방식과 동일한 위상 해상도를 유지한다.
네트워크 구조는 다중 스케일 컨볼루션 블록과 잔차 연결을 활용해 전역 및 국부 특징을 동시에 학습한다. 손실 함수는 위상 차이(L2)와 프린지 재구성 오차를 동시에 최소화하도록 설계되어, 위상 정확도와 프린지 형태 보존을 동시에 달성한다. 학습 데이터는 다양한 표면 형태와 조명 조건을 포함한 시뮬레이션 프린지 세트와 실제 캡처된 프린지 이미지로 구성되어, 모델의 일반화 능력을 강화한다.
실험 결과는 정량적 오류 분석과 시각적 비교를 통해 입증된다. 제한된 깊이 상황에서 단일 프린지 입력만으로도 평균 위상 오차가 0.12 rad 이하이며, 두 프린지 입력 시 전통적인 4‑step PS와 비교해 15 % 정도의 정확도 향상을 보였다. 또한, 고속 움직임을 시뮬레이션한 동적 테스트에서 프레임당 처리 시간이 30 ms 수준으로, 실시간 3‑D 측정에 충분히 적용 가능함을 보여준다.
이러한 접근은 프린지 수집 횟수를 크게 감소시켜 시스템 복잡도와 비용을 낮추는 동시에, 동적 환경에서의 측정 신뢰성을 크게 향상시킨다. 향후 연구에서는 더 넓은 깊이 범위와 복잡한 재질(반사·투과) 물체에 대한 확장, 그리고 하드웨어 가속(예: FPGA, GPU) 기반 실시간 구현이 기대된다.
댓글 및 학술 토론
Loading comments...
의견 남기기