XR을 활용한 사회 로봇 연구 10년 리뷰
초록
본 논문은 2015‑2025년 사이에 발표된 6,527편의 논문 중 엄격한 기준을 적용해 33편을 선정, XR(가상·증강·혼합 현실) 기술이 사회 로봇 인간‑로봇 상호작용(HRI) 연구에 어떻게 활용되고 있는지를 체계적으로 검토한다. 연구는 XR의 역할·맥락, 사용된 하드·소프트웨어, 데이터 수집·분석 방법, 연구자·참여자 인구통계, 그리고 현재의 한계와 향후 로드맵을 제시한다. 결과는 XR이 주로 실험실 시뮬레이션에 국한되고, 하드웨어·소프트웨어 사양이 누락되는 경우가 많으며, 로봇은 수동적인 시각 자극에 머무른다. 또한 눈추적·모션 캡처 등 헤드셋의 풍부한 센서 활용이 부족하고, 연구팀과 표본이 서구·청년·남성 중심이라는 편향이 드러난다. 논문은 적용 맥락 강화, 기술 반복 검증, 다양성 확보, 보고 표준화 네 가지 단계의 로드맵을 제안한다.
상세 분석
이 연구는 XR 기반 사회 로봇 HRI 분야가 아직 초기 단계에 머물러 있음을 여러 차원에서 입증한다. 첫째, 역할과 맥락을 살펴보면 ‘평가·테스트’와 ‘시뮬레이션’이 각각 27편·24편으로 가장 많이 등장하지만, 실제 로봇과의 상호작용을 포함한 ‘협업’이나 ‘프로토타이핑·디자인’은 8편 이하에 불과하다. 이는 XR이 주로 정적인 시각 자료를 제공하는 도구로 사용되고, 동적인 인간‑로봇 대화나 행동 실험은 제한적이라는 점을 시사한다. 둘째, 하드웨어·소프트웨어 보고의 투명성이 현저히 낮다. HTC Vive, Meta Quest, Microsoft HoloLens 등 주요 HMD가 언급되지만, 12편은 하드웨어를 명시하지 않았으며, Unity가 주된 개발 엔진이지만 5편은 사용 도구를 밝히지 않는다. 이러한 보고 결함은 연구 재현성을 저해하고, 기술적 한계(예: 지연, 시야 제한)를 정확히 파악하기 어렵게 만든다. 셋째, 로봇 플랫폼은 Pepper와 NAO가 각각 8편·6편으로 가장 흔하지만, 전체 33편 중 6편은 완전 가상 로봇을 사용한다. 대부분이 Wizard‑of‑Oz 방식으로 음성·제스처를 제어하며, 실제 로봇의 물리적 피드백을 활용하지 않는다. 이는 현재 XR 연구가 로봇의 물리적 존재감보다는 시각·청각적 특성에 초점을 맞추고 있음을 보여준다. 넷째, 데이터 수집 방법은 설문지(29편)와 관찰(25편) 위주이며, 눈추적·생리신호·머신러닝 기반 실시간 메트릭은 7편 이하에 불과하다. 즉, XR 헤드셋이 제공하는 풍부한 바이오센서를 활용하지 못하고, 주관적 보고에 의존하는 경향이 강하다. 다섯째, 연구자와 참여자 인구통계는 기술·공학 배경의 젊은 남성 중심이다. 지역적으로는 서구(특히 독일·미국) 연구팀이 과반을 차지하고, 참여자 역시 20‑30대 대학생이 주를 이룬다. 이러한 편향은 결과의 외적 타당성을 제한한다. 마지막으로 논문은 네 단계 로드맵을 제시한다. (1) 실제 사회적 맥락(교육·보건·공공 공간)에서 XR 활용을 확대하고, (2) 하드웨어 지연·해상도 등 기술적 변수를 체계적으로 검증·공개하며, (3) 다양성(연령·성별·문화) 확보를 위한 표본 설계와 다학제 팀 구성을 촉구하고, (4) XR 연구를 위한 표준화된 보고 템플릿과 분류 체계를 구축한다. 이 로드맵은 XR이 실험실 프로토타입을 넘어 생태학적으로 유효한 사회 로봇 연구 도구로 자리매김하기 위한 구체적 방안을 제시한다.
댓글 및 학술 토론
Loading comments...
의견 남기기