생성형 AI로 만드는 장애 스토리 영상: 동기·표현·공유 연구

생성형 AI로 만드는 장애 스토리 영상: 동기·표현·공유 연구
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 연구는 장애인 9명을 대상으로 생성형 AI(GenAI)를 활용해 장애 경험을 담은 짧은 영상 스토리를 제작하도록 하였으며, 그 과정에서 나타난 동기, 표현 방식, 공유 의도를 분석한다. 결과는 ‘중요한 순간 묘사’라는 프레임워크를 제시하고, 비포착 가능성, 신원 은폐·표현, 맥락적 현실성·일관성, 감정 전달이라는 네 가지 핵심 어포던스를 도출한다. 이를 바탕으로 스토리 완성, 미디어 형식, 오류 수정 메커니즘 등에 대한 디자인 시사점을 논의한다.

상세 분석

이 논문은 디지털 스토리텔링 이론을 기반으로 생성형 AI가 장애인(PwD)의 자가 표현에 어떤 어포던스를 제공하고, 어떤 한계를 드러내는지 정밀히 탐구한다. 연구자는 9명의 PwD를 선정해 ChatGPT(스크립트 생성), DALL·E(이미지 생성), ElevenLabs(음성 합성)라는 세 가지 GenAI 도구를 순차적으로 사용하도록 안내하고, 약 1분 길이의 6장면 영상을 제작하도록 했다. 정성적 데이터는 프롬프트 로그와 반구조화 인터뷰를 통해 수집했으며, 코딩 과정에서 ‘동기’, ‘표현 요소’, ‘공유 의도’라는 세 축을 중심으로 테마를 도출했다.

핵심 결과는 ‘중요한 순간 묘사(momentous depiction)’ 프레임워크이다. 이 프레임워크는 네 가지 어포던스를 제시한다. 첫째, **비포착 가능성(non‑capturable depiction)**은 실제 현장에서 촬영하기 어려운 물리적·감정적 순간을 AI가 텍스트·이미지로 재현함으로써 접근성을 높인다. 둘째, **신원 은폐와 표현(identity concealment and representation)**은 얼굴이나 신체를 직접 노출하지 않아도 스토리를 전달할 수 있게 해, 사회적 위험을 최소화한다. 셋째, **맥락적 현실성 및 일관성(contextual realism and consistency)**은 AI가 생성한 이미지·음성이 실제 장애 상황이나 보조기구와 일치하지 않을 때 발생하는 신뢰성 저하 문제를 지적한다. 마지막으로, **감정 전달(emotional articulation)**은 AI 음성 합성의 억양·강세가 미묘한 감정을 충분히 전달하지 못해, 사용자가 후처리나 추가 편집을 요구하게 만든다.

이러한 어포던스는 설계 시 ‘불완전성 허용(imperfection tolerance)’과 ‘협업적 변형(co‑creation)’이라는 HCI 원칙과 맞물린다. 연구자는 GenAI가 제공하는 자동화와 창의적 확장성에도 불구하고, 사용자가 결과물을 검증·수정하는 ‘교정 메커니즘(corrective mechanisms)’이 필수적임을 강조한다. 또한, 영상 제작 흐름이 텍스트 → 이미지 → 음성 → 편집 순으로 진행되면서, 각 단계마다 발생할 수 있는 편향과 오류가 누적될 위험을 지적하고, 단계별 피드백 루프와 사용자 정의 옵션을 제안한다.

디자인 시사점으로는 (1) 스토리 완성 단계에서 사용자가 AI가 제시한 스크립트를 자유롭게 편집하고, ‘키워드 기반 재생성’ 기능을 통해 일관성을 유지하도록 지원하는 인터페이스, (2) 이미지·음성의 맥락적 정확성을 검증할 수 있는 ‘시각·청각 검증 도구’, (3) 감정 전달을 강화하기 위한 ‘음성 파라미터 미세조정’ 및 ‘감정 라벨링’ 기능, (4) 신원 보호와 동시에 정체성 표현을 가능하게 하는 ‘아바타 기반 시각화’ 옵션 등이 제시된다.

전반적으로 이 연구는 장애인 스토리텔링에 GenAI를 적용함으로써 발생하는 새로운 창작 가능성과 동시에, 편향·비일관성·감정 전달 한계라는 실질적 문제들을 체계적으로 드러내며, 향후 포괄적이고 윤리적인 AI 기반 미디어 도구 설계에 중요한 근거를 제공한다.


댓글 및 학술 토론

Loading comments...

의견 남기기