스위트포테이토 웜 피해 자동 검출 및 중증도 추정을 위한 머신러닝
초록
본 연구는 서아프리카에서 주요 작물인 고구마의 주요 해충인 웜(Cylas spp.) 피해를 현장 및 실험실에서 자동으로 평가하기 위해 컴퓨터 비전 기반 파이프라인을 개발하였다. 현장 데이터로는 5단계 손상 등급을 예측하는 분류 모델을 학습시켜 71.43%의 정확도를 달성했으며, 실험실에서는 YOLOv12와 SAHI 기반의 두 단계 객체 검출 체계를 구축해 작은 먹이 구멍을 77.7% mAP로 탐지하였다. 경량화된 모델을 스마트폰 등 저사양 장치에 적용 가능하도록 설계함으로써 작물 육종 프로그램의 효율성을 크게 향상시킬 수 있음을 보였다.
상세 분석
본 논문은 고구마 웜 피해 평가라는 실용적 문제를 컴퓨터 비전과 딥러닝으로 해결하려는 시도이며, 현장과 실험실 두 환경을 각각 다른 접근법으로 다루었다. 현장에서는 5점 척도(1,3,5,7,9)로 손상 정도를 라벨링한 이미지·비디오 데이터를 수집하고, 클래스 불균형을 해소하기 위해 비디오 프레임을 추출해 데이터셋을 보강하였다. 이후 ResNet·EfficientNet 등 여러 CNN 기반 분류 모델을 fine‑tuning했으며, 최종적으로 71.43%의 정확도를 기록한 모델을 선정하였다. 이 정확도는 기존 수작업 평가의 주관성을 크게 낮추지만, 여전히 30% 정도의 오분류가 존재함을 의미한다. 원인으로는 이미지 촬영 각도·조명 변화, 뿌리 겹침 등에 따른 특징 손실이 있을 것으로 추정된다.
실험실 파이프라인은 두 단계로 구성된다. 첫 번째 단계는 U‑Net 계열의 세그멘테이션 모델을 이용해 뿌리 영역을 정확히 추출함으로써 배경 노이즈를 최소화한다. 두 번째 단계에서는 YOLOv12를 기반으로 SAHI(Slicing Aided Hyper Inference) 기법을 적용해 고해상도 이미지를 작은 타일로 나누어 작은 먹이 구멍(수 mm 이하)까지도 검출한다. 이 접근법은 전체 이미지에서 작은 객체가 희석되는 문제를 효과적으로 해결했으며, 최종 mAP 77.7%를 달성하였다. 모델 경량화를 위해 파라미터 수를 10M 이하로 제한하고, 모바일 친화적인 TensorRT 변환을 수행해 스마트폰 실시간 추론이 가능하도록 하였다.
한계점으로는 현장 데이터의 라벨링이 전문가에 의존해 주관적 오류가 포함될 가능성이 있으며, 실험실 조건과 현장 환경 간의 도메인 차이가 모델 일반화에 영향을 줄 수 있다. 또한, 현재는 5점 등급만을 다루고 있어 연속적인 손상 정도를 정량화하는 회귀 모델이 필요하다. 향후 연구에서는 멀티스펙트럼·열영상 등 추가 센서를 결합하고, 도메인 적응 기법을 적용해 다양한 지역·품종에 대한 이식성을 높이는 것이 바람직하다.
댓글 및 학술 토론
Loading comments...
의견 남기기