대규모 현장 이미지 기반 콩·면화 잎 검출·분할 데이터셋
초록
본 논문은 브라질 상파울루 주의 상업 농장에서 10주에 걸쳐 수집한 640장의 고해상도 현장 사진을 바탕으로, 콩과 면화 잎을 각각 7,221개·5,190개 총 12,411개의 인스턴스 마스크와 바운딩 박스로 정밀 라벨링한 데이터셋을 공개한다. 데이터는 성장 단계, 조명, 잡초 압력 등 실제 농업 현장의 변동성을 반영하며, YOLOv11을 이용한 검증 실험에서 mAP 0.5 = 0.92 이상의 우수한 검출·분할 성능을 보였다. 데이터셋은 선택적 제초, 해충 모니터링 등 정밀 농업 응용에 활용될 수 있다.
상세 분석
본 연구는 기존 농업 이미지 데이터셋이 실외 환경의 복잡성을 충분히 반영하지 못한다는 한계를 극복하고자, 현장 조건을 최대한 다양하게 포함한 ‘SoyCotton’ 데이터셋을 구축하였다. 이미지 수집은 10주 동안 매주 70여 장을 촬영했으며, 조도(아침·오후·그늘), 카메라 모델, 촬영 각도 등을 의도적으로 변형해 실제 농업 현장에서 발생할 수 있는 노이즈와 변동성을 그대로 담았다. 특히, 잡초를 전혀 살포하지 않아 잡초와 비작물 배경이 자연스럽게 포함된 점은 모델이 잡초와 작물을 구분하는 능력을 평가하는 데 큰 장점이다.
라벨링 단계에서는 CVAT와 최신 Segment Anything Model(SAM)을 결합해 전문가가 직접 검증한 인스턴스 마스크와 바운딩 박스를 생성하였다. 라벨링 기준은 ‘가시적인 모든 콩·면화 잎을 크기·건강 상태와 무관하게 포함’하되, 식별이 불가능한 경우는 제외하였다. 중복 라벨을 90 % IoU 기준으로 제거하고, SAM이 만든 작은 “픽셀 블롭”을 OpenCV 연결 요소 분석으로 정제함으로써 라벨 품질을 높였다.
데이터셋은 COCO 형식으로 제공되어 기존 객체 검출·분할 프레임워크와 바로 호환 가능하다. 실험에서는 최신 YOLOv11 모델을 사용해 80 % 학습·10 % 검증·10 % 테스트로 분할했으며, 5‑fold 교차 검증을 추가로 수행해 모델의 일반화 능력을 검증하였다. 주요 평가지표는 클래스별 Precision, Recall, F1-score와 IoU 기반 mAP @0.5이다. 결과적으로 콩과 면화 각각에 대해 mAP 0.5 = 0.93·0.91, F1 ≈ 0.94 수준을 기록했으며, 특히 잎이 겹쳐 있는 밀집 단계에서도 높은 검출 정확도를 유지했다. 이는 인스턴스 레벨 마스크와 바운딩 박스가 동시에 제공된 데이터셋이 복잡한 잎 겹침 상황에서도 효과적인 학습을 가능하게 함을 시사한다.
또한, 저자는 향후 라벨링 자동화를 위해 대형 언어 모델(LLM)·비전‑언어 모델(VLM) 기반 ‘라벨링 코파일럿’ 활용 가능성을 제시했으며, 현재는 인간‑인-루프 검증이 필수적이라고 강조한다. 데이터셋은 CC‑BY‑4.0 라이선스로 공개되어 학계·산업 모두에서 재현성과 확장성을 확보한다.
이러한 특성은 정밀 제초(leaf‑level spraying), 병해충 조기 탐지, 작물 형상 분석 등 고해상도 현장 기반 AI 솔루션 개발에 바로 적용 가능하며, 특히 다중 작물·다중 잡초 환경을 고려한 모델 학습에 필요한 ‘현장 복합성’을 제공한다는 점에서 큰 의의를 가진다.
댓글 및 학술 토론
Loading comments...
의견 남기기