저장 감자 품질 자동 검출: 전이학습 기반 CNN·ViT 모델 비교
초록
본 연구는 200일간 온·습도 제어 하에 수집한 감자 이미지와 무게 데이터를 활용해 전이학습 기반 딥러닝 모델을 구축하였다. 스프라우트 유무를 98.03% 정확도로 구분하는 이진 분류기와, 누적 중량 손실을 28개의 구간으로 나눈 다중 클래스 모델을 개발하였다. DenseNet‑121이 스프라우트 검출에서 최고 성능을 보였으며, 다중 클래스에서는 25구간 구성이 89.83% 이상의 정확도를 기록하였다. 클래스가 세분화될수록 시각적 차이가 미미해 정확도가 감소한다는 결과를 제시한다. 연구 결과는 자동 선별·재고 관리 시스템에 적용 가능함을 시사한다.
상세 분석
본 논문은 저장 감자의 품질 지표인 스프라우트 발생 여부와 중량 손실(즉, 남은 유통기한)을 비접촉식으로 추정하기 위해 전이학습(Transfer Learning) 기반의 네 가지 최신 이미지 분류 아키텍처—VGG‑16, ResNet‑50, DenseNet‑121, Vision Transformer(ViT)—를 체계적으로 비교하였다. 데이터는 ‘FC3’ 품종 18개의 감자를 21 ± 2 °C, 70 ± 10 % RH 조건에서 200일 동안 1~5일 간격으로 촬영했으며, 각 이미지(250 × 250 px, 96 dpi)와 트레이 무게를 동시에 기록하였다. 중량 손실 비율은 초기 무게 대비 현재 무게 차이로 정의하고, 10 % 초과 시 감자를 ‘폐기’ 단계로 간주하였다.
스프라우트 검출은 255장의 학습 이미지와 51장의 테스트 이미지로 구성된 이진 분류 문제로 설정했으며, 5‑fold 교차 검증과 GridSearchCV를 이용해 하이퍼파라미터를 최적화하였다. DenseNet‑121은 특징 재사용과 밀집 연결 덕분에 98.03 %의 정확도를 달성했으며, 이는 VGG‑16(≈94 %), ResNet‑50(≈95 %), ViT(≈93 %)보다 현저히 우수했다. DenseNet의 파라미터 수는 약 8 M으로 비교적 가벼우면서도 깊은 특성 추출이 가능함을 확인하였다.
다중 클래스(28 클래스) 모델은 누적 중량 손실을 구간화하여 ‘남은 유통기한’ 클래스를 정의하였다. 클래스 수가 증가할수록 시각적 차이가 미세해지고 각 구간당 샘플 수가 감소해 학습 불균형이 심화되었다. 결과적으로 25 클래스 구성이 89.83 %92 % 수준의 정확도를 보였으며, 68 클래스에서는 78 % 이하로 급락하였다. 이는 감자 표면의 색·주름·스프라우트 성장 등 미세한 변화를 정량화하기 위한 이미지 해상도와 데이터 양의 한계가 주요 원인임을 시사한다.
모델 훈련은 모두 ImageNet 사전학습 가중치를 초기화값으로 사용했으며, 최상위 Fully‑Connected 레이어를 클래스 수에 맞게 재구성하였다. 학습률, 배치 크기, 옵티마이저 등은 GridSearchCV를 통해 자동 탐색했으며, 5‑fold 교차 검증 평균값을 최종 성능 지표로 채택했다.
실험 결과는 전이학습 기반 CNN이 감자와 같은 복합 구조 작물의 품질 평가에 충분히 적용 가능함을 입증한다. 특히 DenseNet‑121은 파라미터 효율성과 높은 정확도 사이의 최적 균형을 제공한다. ViT는 아직 데이터 양이 제한된 상황에서는 CNN에 비해 성능이 뒤처지지만, 대규모 데이터셋이 확보될 경우 잠재력이 클 것으로 예상된다. 또한, 클래스 구성을 ‘거친’ 수준(2~5구간)으로 유지하면 실무 적용 시 높은 신뢰성을 확보할 수 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기