동적 상황 인식을 위한 온톨로지 기반 무인 지상 차량 지식베이스
초록
본 논문은 전술 현장에서 무인 지상 차량(UGV)의 상황 인식과 자율 의사결정을 강화하기 위해 동적 상황 임무 데이터(DCMD)를 정의하고, 이를 온톨로지‑구동 지식베이스에 실시간으로 통합하는 방법을 제시한다. BFO와 CCO를 상위·중위 온톨로지로 채택하고, YOLOv11 기반 객체 탐지와 베이지안 네트워크를 이용한 위험 판단을 결합해, 실험실 환경에서 4대 UGV가 협업 감시 임무를 수행하며 DCMD 업데이트가 성공적으로 적용되는 것을 확인하였다.
상세 분석
이 연구는 기존 UGV가 사전 입력된 정적(a priori) 정보에 의존해 급변하는 전술 환경에 적응하지 못한다는 문제점을 정확히 짚어낸다. 이를 해결하기 위해 저자는 ‘동적 상황 임무 데이터(DCMD)’라는 개념을 도입하고, 온톨로지‑구동 지식베이스에 실시간으로 주입하는 프레임워크를 설계하였다. 상위 온톨로지로 BFO를 선택함으로써 객체, 사건, 시간·공간 등 현실 세계를 객관적으로 모델링하고, 중위 온톨로지인 CCO를 통해 군사·감시 임무에 특화된 개념을 재사용한다. 또한 RO Core를 통합해 관계를 표준화함으로써 팀 내 UGV 간 의미적 상호운용성을 확보한다. 데이터 흐름은 이미지 획득 → YOLOv11 기반 객체·속성 탐지 → 깊이 추정으로 위치 확보 → 정체성 매칭 및 베이지안 네트워크(BN) 추론으로 위험도와 신규성 판단 → 온톨로지 스키마에 DCMD 업데이트 형태로 삽입한다. BN은 증거 집합을 이산 변수로 모델링하고 변수 제거(VE) 알고리즘을 사용해 제한된 온보드 연산 자원에서도 실시간 추론을 가능하게 한다. 지식베이스 구현에는 TypeDB(전통적 그래프 DB와 온톨로지 형식성을 결합한 폴리모픽 DB)를 선택해 엔터티·관계·속성을 TypeQL로 정의하고, 데이터 파이프라인을 통해 미션 중 지속적으로 삽입·조회한다. 실험은 6 × 2 m 규모의 물리적 테스트베드에서 4대 TurtleBot3‑WafflePi가 각각 탐색팀과 검증팀으로 역할을 분담해 수행했으며, 각 로봇은 NVIDIA Jetson Orin AGX와 RealSense D435i를 탑재해 고성능 비전과 깊이 인식을 제공한다. 결과는 탐색팀이 사전 정의된 객체와 위험 요소를 정확히 식별하고, 검증팀이 이를 재확인함으로써 미션 목표를 완수했음을 보여준다. 특히 DCMD 업데이트가 온보드 지식베이스에 실시간 반영되어 모든 로봇이 공통 상황 인식을 공유했으며, 이는 전술 수준의 상황 인식 향상과 인간 운영자의 입력 감소에 직접 기여한다. 전체적으로 온톨로지 기반의 동적 지식베이스가 제한된 자원 환경에서도 실시간으로 의미 있는 컨텍스트를 제공함으로써 UGV의 자율성을 크게 확대할 수 있음을 입증한다.
댓글 및 학술 토론
Loading comments...
의견 남기기