MONAI 라벨: 3D 의료 영상 인터랙티브 라벨링 프레임워크
초록
MONAI 라벨은 오픈소스 플랫폼으로, 연구자가 AI 기반 인터랙티브 라벨링 애플리케이션을 손쉽게 개발·배포하고, 3D Slicer와 OHIF 같은 GUI와 연동해 3D 의료 영상의 주석 작업 시간을 크게 단축한다. 활성학습과 불확실성 추정 기능을 제공해 효율적인 데이터 선택이 가능하며, DeepGrow·DeepEdit·Scribbles 등 다양한 인터랙티브 세그멘테이션 방식을 지원한다.
상세 분석
본 논문은 의료 영상 라벨링의 병목 현상을 해소하기 위해 MONAI 라벨이라는 통합 프레임워크를 제안한다. 핵심 설계는 서버‑클라이언트 구조이며, 서버는 PyTorch 기반 MONAI 라이브러리와 연동해 모델 학습·추론·활성학습 파이프라인을 REST API 형태로 제공한다. 클라이언트 측에서는 3D Slicer와 OHIF 뷰어가 현재 지원되며, 향후 다른 DICOM‑준수 GUI와도 손쉽게 연결할 수 있다.
인터랙티브 세그멘테이션은 크게 세 가지 접근법으로 나뉜다. 첫째, DeepGrow은 사용자가 전·후 배경 클릭을 제공하면, 클릭 위치를 거리 맵으로 변환해 입력 채널에 추가하고, U‑Net 기반 네트워크가 이를 이용해 실시간 세그멘테이션을 수행한다. 클릭 시뮬레이션을 통해 학습 단계에서도 동일한 입력 형태를 재현함으로써 모델이 클릭에 민감하게 반응하도록 만든다. 둘째, DeepEdit은 DeepGrow의 클릭 기반 방식을 확장해, 초기 자동 추론(클릭 없이) 후 필요 시 클릭을 통해 세그멘테이션을 미세 조정한다. 학습 시 절반은 클릭이 없는 일반적인 세그멘테이션, 나머지 절반은 시뮬레이션된 클릭을 포함해 다중 모드 학습을 수행한다. 셋째, Scribbles 기반 방법은 자유형 스크리블을 에너지 기반 최적화(예: Graph‑Cut)와 결합하거나, 스크리블을 추가 입력 채널로 사용해 CNN을 재학습시켜 정밀도를 높인다. 이러한 다중 인터랙션 모드는 사용자의 작업량을 상황에 맞게 조절할 수 있게 한다.
비인터랙티브(자동) 세그멘테이션은 MONAI 코어에 구현된 다양한 3D U‑Net, HighResNet, DynUNet 등을 그대로 활용한다. 인터랙티브와 달리 클릭 채널이 없으며, 추론 결과는 클라이언트에서 추가 편집이 가능하도록 설계되었다.
활성학습 측면에서 MONAI 라벨은 불확실성 추정(드롭아웃 기반 Monte‑Carlo 샘플링)과 aleatoric·epistemic 불확실성을 동시에 계산한다. 이를 통해 라벨링이 아직 안 된 이미지 중 가장 불확실한 샘플을 우선적으로 선택해 전문가에게 제시함으로써 라벨링 효율을 극대화한다. 또한, 히어리스틱 플래너가 GPU 메모리와 연산량을 고려해 최적의 배치·학습 파라미터를 자동 제안한다.
시스템은 DICOM‑REST (QIDO‑RS, WADO‑RS, STOW‑RS)와 연동해 PACS와 직접 통신할 수 있어, 병원 인프라에 손쉽게 통합된다. 오픈소스 배포는 PyPI 패키지(monailabel)로 제공되며, 샘플 애플리케이션과 상세 문서가 포함돼 즉시 사용이 가능하다. 실험에서는 두 개의 공개 데이터셋(예: MSD와 KiTS)에서 인터랙티브 모델을 적용했을 때 라벨링 시간이 30~50% 감소했음을 보고한다.
전반적으로 MONAI 라벨은 라벨링 파이프라인을 모듈화·표준화하고, 연구자와 임상의가 공동으로 AI 모델을 개선·배포할 수 있는 생태계를 제공한다는 점에서 의료 영상 AI 연구에 중요한 인프라로 평가된다.
댓글 및 학술 토론
Loading comments...
의견 남기기