사과잎병 진단을 위한 초경량 맘바 모델

사과잎병 진단을 위한 초경량 맘바 모델
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 파라미터 0.051M만을 사용해 99.58%의 정확도를 달성한 경량 Mamba 기반 모델 Mam‑App을 제안한다. Apple Leaf Disease 데이터셋뿐 아니라 옥수수·감자 데이터셋에서도 높은 성능을 유지하며, 시각화와 전통 머신러닝 분류기로 특징의 판별력을 검증하였다.

상세 분석

Mam‑App은 최근 주목받는 상태공간 모델인 Mamba를 핵심 백본으로 채택함으로써 Transformer의 2차원 자기‑주의 연산 복잡도를 선형으로 축소한다. 기존 CNN‑Transformer 하이브리드 구조가 수백만 개의 파라미터를 요구하는 반면, 본 모델은 3개의 Conv‑Stem 블록과 4개의 Mamba‑Layer로 구성돼 총 파라미터 수를 0.051M 수준으로 압축한다. 이는 모바일·드론 등 제한된 연산 자원을 가진 환경에서도 실시간 추론이 가능함을 의미한다.

데이터 전처리 단계에서는 PlantVillage의 사과잎병 이미지(4개 클래스)를 표준화하고, 데이터 증강을 최소화해 실제 현장 환경과의 격차를 최소화하였다. 모델 학습은 AdamW 옵티마이저와 cosine‑annealing 스케줄러를 사용했으며, 30 epoch 내에 수렴하였다. 실험 결과, 정확도 99.58%, 정밀도 99.30%, 재현율 99.14%, F1 99.22%를 기록했으며, 이는 EfficientNet‑B0(≈5M 파라미터)와 기존 Vision‑Transformer 기반 모델을 능가한다.

일반화 검증을 위해 옥수수·감자 데이터셋에 그대로 적용했을 때도 각각 99.48%·98.46%의 정확도를 유지하였다. 이는 Mamba가 이미지 도메인에서 클래스 간 미묘한 텍스처 차이를 효과적으로 포착한다는 증거다. 또한, penultimate layer의 특징을 PCA·t‑SNE로 시각화했을 때 클래스별 클러스터가 명확히 구분되었으며, 동일 특징을 Random Forest와 XGBoost에 입력했을 때도 98% 이상의 정확도를 보였다.

한계점으로는 현재 실험이 모두 공개 데이터셋에 국한돼 있어 현장 촬영 이미지(조명·배경 변동이 큰 경우)에 대한 직접 평가가 부족하다는 점이다. 또한, Mamba의 상태공간 파라미터(SSM) 설계가 고정되어 있어 도메인‑특화 튜닝이 어려울 수 있다. 향후 연구에서는 경량화된 SSM 변형과 멀티스케일 피라미드 구조를 결합해 더 복잡한 병변을 다루는 방안을 모색할 필요가 있다.


댓글 및 학술 토론

Loading comments...

의견 남기기