시선‑머리 움직임 스펙트럼: VR 사용자 개별 차이를 정량화하는 새로운 모델
초록
본 논문은 VR 환경에서 사용자가 시선을 이동할 때 눈과 머리의 기여 비율이 개인마다 다름을 밝혀낸다. 360° 영상 자유 시청 데이터(N=87)를 활용해 시선 이동 각도에 따른 머리 기여도를 힌지 형태의 연속 함수로 모델링하고, 이를 통해 ‘눈‑움직임 중심’부터 ‘머리‑움직임 중심’까지의 스펙트럼을 정의한다. 추가로 28명을 대상으로 자유 시청과 목표 시점 과제 두 가지 상황에서 동일 모델을 적용해 개인별 파라미터가 과제에 따라 변동하지만 전체적인 순위는 일정함을 확인한다. 연구 결과는 적응형 시야 스트리밍, 초점 기반 렌더링, 다인 협업 UI 설계 등에 활용될 수 있음을 제시한다.
상세 분석
이 연구는 기존 HCI 분야에서 눈‑머리 협조를 “헤드 무버/논-헤드 무버”라는 이산적 라벨로만 구분해온 한계를 극복하고, 연속적인 파라미터화 모델을 제안한다는 점에서 학술적·실용적 의의가 크다. 저자들은 360° 영상 자유 시청 데이터셋(D‑SAV360)에서 각 시선 이동을 시작·종료 시점의 눈‑머리 각도를 추출하고, 전체 시선 이동 각도(θ) 대비 머리 회전 각도(φ)의 비율을 구한다. 이 비율은 작은 각도에서는 거의 0에 가깝고, 일정 임계각(θ₀) 이후 선형적으로 증가한다는 가정을 바탕으로,
h(θ) = 0 (θ ≤ θ₀)
h(θ) = α·(θ‑θ₀) (θ > θ₀)
와 같은 힌지 기반 함수로 피팅한다. 여기서 θ₀는 “머리 개입 시작점”, α는 “머리 기여 증가율”이다. 두 파라미터는 개인마다 다르게 추정되며, 전체 인구에 대해 히스토그램을 그리면 연속적인 분포가 나타난다. 이는 기존 연구가 제시한 고정 임계값(예: 30°)보다 더 세밀하게 개인 차이를 포착한다는 점에서 의미가 있다.
이어진 실험에서는 28명의 피험자를 두 가지 과제에 투입한다. 첫 번째는 앞서 사용한 자유 시청과 동일한 360° 영상 시청이며, 두 번째는 화면에 나타나는 목표 지점을 빠르게 바라보는 짧은 제어 과제이다. 동일한 힌지 모델을 적용했을 때, θ₀와 α 값은 과제에 따라 평균적으로 변하지만, 개인 간 순위(예: “머리‑중심”에 가까운 사람 vs “눈‑중심”에 가까운 사람)는 높은 상관관계를 보인다(ρ≈0.68). 이는 머리 움직임 경향이 개인 고유의 특성으로 존재하지만, 작업 요구에 따라 가변적으로 조정된다는 것을 시사한다.
시스템 수준에서 저자들은 이 모델이 foveated rendering(시선 중심 고해상도 렌더링)에서 머리 회전 예측에 활용될 수 있음을 논한다. 예를 들어, 머리‑기여 비율이 높은 사용자는 머리 회전이 빠르게 발생하므로, 렌더링 파이프라인이 머리 움직임을 선행 예측해 뷰포트 전송을 미리 준비할 수 있다. 또한 다인 협업 시, 머리 움직임 차이가 시선 정렬도에 영향을 미치므로, 공동 작업 인터페이스가 개인별 머리‑눈 스펙트럼을 고려해 시각적 힌트를 조정하면 인지 부하를 감소시킬 수 있다.
한계점으로는 (1) 수평 축에만 초점을 맞추어 수직·심도 움직임을 무시했으며, (2) 제어 과제의 표본이 28명으로 비교적 작아 일반화에 주의가 필요하고, (3) 사용된 헤드셋은 특정 제조사의 눈추적 기능에 의존해 다른 하드웨어와의 호환성을 검증하지 않았다. 향후 연구에서는 3D 공간 전반에 걸친 눈‑머리 협조 모델링, 동적 씬에서의 실시간 파라미터 추정, 그리고 AR·MR 환경에서의 적용 가능성을 탐색해야 할 것이다.
댓글 및 학술 토론
Loading comments...
의견 남기기