AI 기반 3차원 화상 재구성을 통한 화상 평가 및 정량 분석
초록
본 논문은 소비자용 카메라로 촬영한 다중 각도 사진을 이용해 Structure‑from‑Motion과 Multi‑View Stereo 기법으로 환자 개별 3D 화상 모델을 생성하고, 딥러닝 기반 세분화 모델을 3D 표면에 투사해 화상 면적·TBSA·깊이 추정·부피 변화를 실세계 단위(cm², mm)로 정량화한다. 연속 촬영된 모델을 ICP 등으로 정합하여 치유 진행 상황을 객관적으로 추적하고, 임상 워크플로와 연계된 데이터 입력·보고서 자동생성 기능을 제공한다. 시뮬레이션 실험을 통해 재구성 안정성, 측정 일관성 및 임상적 타당성을 검증하였다.
상세 분석
이 연구는 기존 2차원 사진 기반 화상 평가가 갖는 시점·왜곡·주관적 경계 설정 문제를 근본적으로 해결하고자 한다. 핵심 기술은 세 단계로 구성된다. 첫째, 이미지 품질 검증(해상도, 블러, 노출) 후 SIFT 기반 특징 추출·매칭을 통해 카메라 포즈와 희소 3D 포인트 클라우드를 얻는다. 이어서 COLMAP 호환 Bundle Adjustment와 MVS를 적용해 밀도 높은 포인트 클라우드와 삼각형 메쉬를 생성한다. 둘째, 재구성된 모델은 물리적 스케일링을 위해 실제 눈금이 포함된 캘리브레이션 객체(예: 자)를 사용해 스케일 팩터 s = dr/dm을 계산하고, 모든 정점·면적·부피에 s, s², s³을 곱해 실제 단위(cm, mm)로 변환한다. 셋째, 딥러닝 세분화 모델(U‑Net·Mask RCNN 등)은 각 이미지에서 화상 마스크 M을 예측하고, 카메라 레이와 메쉬 교차를 통해 2D 마스크를 3D 표면에 ‘페인팅’한다. 다중 뷰에서 얻은 확률을 베이지안 방식으로 융합해 노이즈를 감소시킨다. 이렇게 라벨링된 메쉬에서 삼각형 면적 합산(A = ∑Af)과 경계 에지 길이 합산(P = ∑‖e‖)을 직접 계산함으로써 면적·주변길이를 정확히 측정한다. 깊이와 부피는 현재 RGB만으로는 제한적이지만, 모델 기반 깊이 프록시(예: 표면 곡률·법선 변위)와 부피 차이를 추정해 치유 과정에서의 체적 감소를 정량화한다.
시간에 따른 추적은 ICP 기반 강체 정합과 필요 시 비선형 변형 정합을 적용해 연속 모델을 동일 좌표계에 정렬한다. 정합 오차를 최소화함으로써 면적·부피 변화가 실제 치유와 일치하도록 보장한다. 또한, 임상 워크플로와 연계된 데이터베이스는 환자 인구통계·부상 메커니즘·수액 계산(파크랜드 공식) 등을 구조화된 형태로 저장하고, 자동 보고서 생성 시 이 데이터를 삽입해 의료 기록과 법적 문서화를 지원한다.
시뮬레이션에서는 다양한 조명·배경·피사체 형태를 가정해 재구성 정확도(RMSE < 2 mm)와 면적 오차(±3 %)를 보고했으며, 연속 재구성 간 정합 오류가 1 mm 이하로 유지돼 치유 추적에 충분히 신뢰할 수 있음을 입증했다. 전체 파이프라인은 소비자 스마트폰·디지털 카메라만으로 5~10분 내에 완료될 수 있어 응급실·외래·원격 진료 환경에 적용 가능하다.
이 논문의 주요 기여는 (1) 기존 2D 기반 평가의 주관성을 해소하고 물리적 단위 기반 객관적 지표를 제공, (2) 소비자 기기만으로 고정밀 3D 모델을 자동 생성·스케일링, (3) AI 세분화와 3D 투사를 결합해 워크플로 중심의 임상 의사결정 지원 시스템을 구현, (4) longitudinal 정합을 내장해 치유 과정을 정량적으로 모니터링한다는 점이다. 다만, 깊이 추정이 RGB에 한정돼 실제 조직 깊이를 정확히 측정하려면 초음파·멀티스펙트럼·광학식 깊이 센서와의 융합이 필요하며, 현재는 모델 기반 프록시로 대체하고 있다. 향후 연구에서는 이러한 멀티모달 데이터를 통합해 깊이·부피 측정 정확도를 높이고, 실시간 모바일 구현 및 대규모 임상 검증을 목표로 할 수 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기