모션 테이프 기반 허리 움직임 분류를 위한 딥러닝 증강 모델

모션 테이프 기반 허리 움직임 분류를 위한 딥러닝 증강 모델
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 연구는 저비용 패브릭 센서인 Motion Tape(MT) 데이터를 활용해 허리의 6가지 움직임을 고정밀히 분류하는 딥러닝 파이프라인 MT‑AIM을 제안한다. 제한된 샘플과 잡음이 많은 데이터를 보완하기 위해 조건부 생성 모델로 합성 MT 시계열과 관절 각도를 생성하고, DTFT 기반 주파수 특징을 결합한다. 실험 결과, 합성 데이터와 특징 증강을 적용한 MT‑AIM이 기존 모델 대비 높은 정확도를 달성하였다.

상세 분석

본 논문은 저비용 착용형 스트레인 센서인 Motion Tape(MT)의 한계—소규모 데이터셋, 센서 부착 위치에 따른 변동성, 고유 잡음—를 딥러닝 관점에서 체계적으로 해결하고자 한다. 먼저, 10명의 건강 성인을 대상으로 6가지 허리 동작(서서 신전·전굴·좌·우 측굴·좌·우 회전)을 3회씩 수행하게 하여 총 180개의 6초 길이 시계열을 수집하였다. MT 센서는 3 × 2 매트릭스로 6개가 배치되고, 동시에 마커 기반 MoCap으로 관절 각도를 기록하였다. 데이터 전처리 단계에서는 Hampel 필터링으로 이상치를 제거하고, 각 시계열을 피험자별 최소·최대값으로 ‑1~1 정규화하였다.

핵심 기법은 두 종류의 조건부 생성 모델이다. ① Conditional Variational Autoencoder(C‑VAE)를 이용해 MT 신호와 MoCap 각도 사이의 매핑을 학습, 입력 MT 시계열로부터 관절 각도를 예측한다. 이 예측 각도는 원본 각도와 동일한 차원으로 변환되어 특징 벡터에 추가된다. ② Conditional GAN 혹은 Diffusion‑TS 기반 모델을 사용해 움직임 라벨을 조건으로 MT 시계열 자체를 합성한다. 이렇게 생성된 합성 샘플은 원본 데이터와 결합돼 학습 세트 규모를 실질적으로 3~4배 확대한다.

또한, 모든 MT 시계열에 대해 Discrete‑Time Fourier Transform(DTFT)을 수행해 주파수 스펙트럼을 추출하고, 이는 시계열 특성에 강건한 보조 입력으로 활용된다. 최종 분류기는 세 가지 아키텍처(XGBoost, Transformer, CNN‑LSTM) 중 성능이 가장 높은 Transformer 기반 모델을 선택했으며, 입력은 (원본 MT + DTFT + 예측 각도 + 합성 MT) 4가지 채널을 concatenate한 형태이다.

실험 결과, 베이스라인(단순 CNN‑LSTM, 원본 데이터만 사용) 대비 정확도가 12%p 상승했으며, 특히 전굴·신전 구분에서 F1-score가 0.94까지 도달했다. 잡음에 민감한 전통적인 피처 엔지니어링 대비 DTFT와 합성 데이터가 모델의 일반화 능력을 크게 향상시킨 점이 주목할 만하다. 또한, 조건부 생성 모델이 실제 물리적 센서 변동성을 학습해 현실적인 합성 데이터를 제공한다는 점에서 임상 현장 적용 가능성을 높인다.

한계점으로는 데이터셋이 건강인 10명에 국한돼 LBP 환자에 대한 검증이 부족하고, 센서 부착 위치가 고정되지 않은 상황에서의 강인성 평가가 미비하다. 향후 연구에서는 환자군 확대, 실시간 추론 파이프라인 경량화, 그리고 센서 부착 자동 보정 알고리즘을 통합해 실제 원격 재활 모니터링 시스템으로 전환하는 것이 필요하다.


댓글 및 학술 토론

Loading comments...

의견 남기기