제조 현장 자율 이동 로봇을 위한 근거리 인식 체계

제조 현장 자율 이동 로봇을 위한 근거리 인식 체계
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 제조 환경에서 AMR(Autonomous Mobile Robot)의 안전성을 높이기 위해 근거리 영역을 집중적으로 감지하는 3단계 인식 프레임워크를 제안한다. 레이저 스트립을 이용한 이진 차단 감지, 스트립 변위 기반 높이 추정, 그리고 임베디드 AI 보드에서 동작하는 객체 분류 모델을 차례로 적용해 비용·연산·정밀도의 균형을 맞추었다. 라즈베리 파이 5 기반 구현으로 25 ~ 50 fps 실시간 성능을 달성했으며, 실험 결과 각각 100 % 이진 검출, 17.8 mm RMSE 높이 추정, 100 % mAP@0.5 객체 분류 정확도를 보였다.

상세 분석

이 논문은 제조 현장에서 AMR이 인간 작업자와 협업할 때 가장 위험이 높은 로봇 바닥 근처 0.5 m 이내의 작은 장애물을 탐지하는 문제에 초점을 맞춘다. 기존 LiDAR·초음파 기반 장거리 센서는 해상도와 반응 속도 면에서 근거리 소형 물체를 놓치기 쉬운 한계가 있다. 이를 보완하기 위해 저비용 하드웨어와 경량 알고리즘을 결합한 3단계 계층 구조를 설계하였다. 첫 번째 단계인 Light‑cutoff detection은 653 nm 레이저 다이오드를 바닥에 투사하고, 라즈베리 파이 카메라가 스트립을 실시간으로 캡처한다. HSV 색공간에서 레이저 색을 추출하고, Hough 변환으로 스트립 중심을 찾은 뒤, 사전 정의된 연속성 임계값(5 mm)을 초과하는 구간을 차단 신호로 변환한다. 이 방식은 연산량이 적고 50 fps에서도 20 ms 이하의 지연으로 즉각적인 안전 정지를 가능하게 한다. 두 번째 단계인 Light‑displacement height estimation은 동일한 스트립을 이용해 물체가 차단한 부분의 수직 변위를 측정한다. 카메라와 레이저의 설치 높이(h_light, h_cam)와 관측된 변위 d를 이용해 h_obj = f(d, h_light, h_cam) 형태의 기하학적 모델을 적용한다. 실험에서는 다양한 높이(30 ~ 150 mm)의 물체에 대해 평균 17.8 mm RMSE를 기록했으며, 이는 로봇이 작은 파편과 사람 손/발 등 위험 물체를 구분하는 데 충분한 정밀도이다. 세 번째 단계는 YOLO‑v5 기반 객체 검출 모델을 AI‑HAT(Neural Compute Stick) 위에 배치해 실시간으로 7가지 사전 정의 클래스(인간, 공구, 자재, 부품, 차량, 설비, 안전용품)를 분류한다. 제한된 근거리 데이터셋을 보완하기 위해 합성 데이터 생성 파이프라인을 구축했으며, 결과적으로 mAP@0.5 = 1.00을 달성했다. 세 단계는 ‘바이너리 → 기하학 → 의미론적’ 순으로 인식 정보를 점진적으로 고도화하며, 각 단계마다 비용·연산·정확도 트레이드오프를 명시한다. 라즈베리 파이 5와 저가 레이저·카메라만으로 구현된 점은 산업 현장에 손쉽게 확산될 수 있음을 시사한다. 그러나 레이저가 바닥 색상·조명 변화에 민감하고, 카메라 시야가 제한적이며, 객체 검출 모델이 제한된 클래스에만 최적화된 점은 향후 연구 과제로 남는다. 전체적으로 이 논문은 근거리 안전 인식을 위한 실용적 하드웨어‑소프트웨어 통합 설계와 체계적인 실험 평가를 제공함으로써 AMR 안전 분야에 중요한 기여를 한다.


댓글 및 학술 토론

Loading comments...

의견 남기기