흉부 CT 다기관 자동 분할을 위한 2D 확장 잔차 U‑Net

흉부 CT 다기관 자동 분할을 위한 2D 확장 잔차 U‑Net
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 흉부 CT 영상에서 심장, 식도, 기관, 대동맥 네 개의 위험 장기를 자동으로 분할하기 위해, U‑Net 구조의 가장 낮은 레이어에 확장(다이레이트) 합성곱을 적용하고 인코더 블록에 잔차 연결을 추가한 2D U‑Net+DR 모델을 제안한다. 60명의 환자 데이터를 40:20 비율로 학습·시험 셋으로 나누어 5‑fold 교차 검증과 두 단계 학습(다중 클래스 Dice 손실 → Tversky 손실 + 온라인 데이터 증강)을 수행했으며, 최종 테스트에서 평균 Dice 91.57 %와 Hausdorff 거리 0.25 mm를 달성하였다.

상세 분석

본 연구는 기존 2D U‑Net의 한계인 제한된 수용 영역(receptive field)을 확장하기 위해, 인코더‑디코더 구조의 bottleneck에 4개의 다이레이트 합성곱(dilation rate 1~4)을 삽입하였다. 3×3 커널에 간격을 두어 7×7 수준의 수용 영역을 파라미터 수 증가 없이 구현함으로써, 장기 간 경계가 흐릿한 CT 이미지에서도 전역 컨텍스트를 효과적으로 포착한다. 또한, 인코더 각 단계에 잔차 연결을 도입해 두 개의 연속 합성곱 출력을 입력과 합쳐 전달함으로써, 기울기 소실 문제를 완화하고 다중 스케일 특징을 보다 풍부하게 학습한다.

데이터 전처리에서는 저대조도 CT 슬라이스에 CLAHE를 적용하고, 평균·표준편차 정규화를 수행한 뒤 288×288 크기로 중심을 잘라 ROI만 남겼다. 5‑fold 교차 검증을 기본으로, 첫 번째 단계에서는 다중 클래스 Soft‑Dice 손실만 사용해 기본 모델을 학습하였다. 두 번째 단계에서는 온라인 증강(회전·확대·이동·전단·크롭)과 함께 Tversky 손실(α=β=0.5)을 적용해 클래스 불균형(특히 식도)의 영향을 보정하였다. 최적 모델은 NVIDIA TITAN X‑Pascal GPU에서 약 30 epoch(첫 단계)와 50 epoch(두 번째 단계) 동안 학습되었으며, 최종 출력은 5‑class softmax를 통해 각 픽셀에 대한 확률 맵을 생성한다.

성능 평가는 Dice coefficient와 Hausdorff distance 두 지표를 사용했으며, 심장·대동맥은 높은 대비와 규칙적인 형태 덕분에 0.940.94 %의 Dice와 0.220.30 mm의 HD를 기록했다. 반면 식도는 평균 Dice 0.858 %와 HD 0.331 mm로 가장 낮은 성능을 보였지만, 기존 연구(


댓글 및 학술 토론

Loading comments...

의견 남기기