동적 모바일 조작을 위한 행동 연관 장소 기반 로봇 베이스 선택

동적 모바일 조작을 위한 행동 연관 장소 기반 로봇 베이스 선택

초록

본 논문은 로봇이 물체를 조작하기 위해 이동해야 하는 “행동 연관 장소(ARPlace)”를 확률적 집합으로 정의하고, 경험 기반 학습으로 성공 확률 모델을 구축한다. ARPlace는 로봇·물체 위치 불확실성을 고려해 실시간으로 갱신되며, 변환형 플래너와 결합해 최소 커밋먼트 방식으로 목표 위치를 선택한다. 시뮬레이션 실험에서 기존 단일 목표 방식보다 높은 성공률과 효율성을 입증한다.

상세 분석

ARPlace 개념은 기존 로봇 베이스 위치 선택이 “하나의 최적점”에 의존하는 한계를 극복하기 위해 제안되었다. 저자는 베이스 위치를 이산적인 좌표 집합으로 표현하고, 각 좌표마다 해당 위치에서 조작 행동이 성공할 확률을 할당한다. 이 확률은 사전 학습 단계에서 로봇이 다양한 위치와 물체 배치에서 수행한 시도 결과를 기반으로 베이지안 회귀 혹은 가우시안 프로세스와 같은 확률 모델을 통해 추정된다.

핵심은 로봇과 물체의 위치 추정에 내재된 불확실성을 명시적으로 모델링한다는 점이다. 로봇의 자기 위치와 물체 위치는 각각 확률 분포(예: 가우시안)로 표현되며, 이 두 분포를 결합해 각 베이스 후보점에서 기대 성공 확률을 계산한다. 따라서 ARPlace는 정적인 맵이 아니라 현재 관측에 따라 동적으로 변하는 확률 지형이다.

플래닝 단계에서는 전통적인 “목표 위치 고정 → 경로 계획” 흐름을 뒤집어, 변환형 플래너가 symbolic plan을 생성하면서 ARPlace를 심볼릭 조건으로 활용한다. 예를 들어, “물체 A를 집어 올릴 때 ARPlace 성공 확률 > 0.8인 위치 중 하나를 선택한다”는 제약이 플래너에 삽입되어, 계획 단계에서부터 로봇이 가장 안전하고 효율적인 베이스 위치를 선택하도록 유도한다. 플래너는 상황 변화(예: 물체 위치 재측정) 시 ARPlace를 재계산하고, 필요 시 계획을 재구성하거나 목표 위치를 재선정한다. 이러한 최소 커밋먼트 전략은 초기 불확실성이 큰 상황에서도 과도한 결정을 피하고, 실행 중에 축적되는 정보를 활용해 점진적으로 결정을 구체화한다.

실험에서는 시뮬레이션 로봇이 다양한 물체 위치와 센서 노이즈 조건에서 조작 작업을 수행하도록 설정하였다. ARPlace 기반 플래너는 전통적인 단일 목표점 플래너에 비해 성공률이 평균 15% 이상 향상되었으며, 불필요한 이동 거리와 시간도 10~12% 감소하였다. 특히, 물체 위치 추정 오차가 커질수록 ARPlace의 장점이 두드러졌다.

한계점으로는 학습 단계에서 충분한 데이터가 필요하고, 고차원 환경(다중 물체·다중 로봇)에서는 ARPlace의 차원 폭발 문제가 발생할 수 있다. 또한, 확률 모델 선택에 따라 계산 비용이 크게 달라지므로 실시간 적용을 위한 경량화가 요구된다.