뇌종양 세분화·분류를 위한 대규모 고해상도 BRISC 데이터셋 공개
초록
BRISC는 6,000개의 대비 강화 T1‑가중 MRI 영상을 포함한 균형 잡힌 뇌종양 데이터셋으로, 신경방사선 전문의가 직접 만든 고해상도 세분화 마스크와 4가지(교모종양, 수막종, 뇌하수체종, 비종양) 라벨을 제공한다. 축·관상·시상면을 고르게 배분해 모델의 다각도 일반화를 촉진하고, UNet·Transformer 기반 모델들의 베이스라인 성능을 제시한다.
상세 분석
BRISC는 기존 BraTS·Cheng 데이터셋이 갖는 한계를 체계적으로 보완한다. 첫째, 데이터 소스는 다기관 공개 데이터(총 7,023장)에서 T1‑가중 대비 강화 영상만을 추출해 일관성을 확보했으며, T2·FLAIR 등 다른 시퀀스는 배제해 종양 경계 식별에 최적화된 영상만을 제공한다. 둘째, 클래스 불균형을 해소하기 위해 교모종양(1,401장), 수막종(1,635장), 뇌하수체종(1,757장), 비종양(1,207장)으로 거의 동일한 비율을 유지한다. 또한, 축(axial), 관상(coronal), 시상(sagittal) 3개의 평면을 각각 1,550·1,660·1,790장(훈련)과 387·316·297장(테스트)으로 균등하게 배분해 평면별 편향을 최소화한다.
데이터 전처리 단계에서는 시퀀스 통일, 라벨·마스크 검증, 아티팩트·손상 이미지 제거, 중복 이미지(정확·유사) 삭제, 공간 차원 표준화 등을 수행했으며, 특히 동일 피험자가 훈련·테스트에 겹치지 않도록 시각적 유사성 및 메타데이터 교차 검증을 진행했다. 이는 데이터 누수 위험을 크게 낮추었다.
주석 과정은 AnyLabeling 툴을 이용해 다중 라운드 검토를 거쳤으며, 전문 방사선과 의사가 공동으로 품질을 확인했다. 평균 Dice 계수 0.924(초기 vs 전문가 검증 마스크)와 4.8% 이미지에 대한 교정 기록은 주석 품질이 높은 수준임을 보여준다.
베이스라인 실험에서는 UNet, UNet++, DeepLabV3+, PAN, SABERNet, ABANet 등 12개 모델을 적용해 mIoU와 클래스별 IoU를 보고했다. 전통적인 CNN 기반 모델은 평균 0.78~0.84 수준을 기록했으며, Transformer 기반 SABERNet·ABANet이 0.86 이상으로 약간 우위를 보였다. 분류 과제에서는 ResNet‑50, EfficientNet‑B3, ConvNeXt 등을 사용했으며, 전체 정확도 93.2%, 가중 평균 F1‑Score 0.91을 달성했다.
제한점으로는 모든 영상이 T1‑가중 대비 강화만 포함돼 다른 시퀀스(예: T2, FLAIR)와의 도메인 이동에 취약하고, 스캐너 종류·필드 강도·프로토콜 메타데이터가 누락돼 하드웨어·프로토콜 변이 보정이 어려운 점을 명시한다. 또한, 환자 수준의 독립성을 완전 보장하지 못했으며, 임상 진단용으로 직접 사용하기엔 검증이 부족하다. 그럼에도 불구하고, 다중 평면·다중 클래스·고품질 마스크를 갖춘 대규모 공개 데이터셋으로서, 뇌종양 자동화 연구와 알고리즘 벤치마크에 큰 기여를 할 것으로 기대된다.
댓글 및 학술 토론
Loading comments...
의견 남기기