초개인화 AI가 말하는 나: 보조 의사소통의 새로운 경계
초록
본 연구는 저자 자신의 AAC(보조·대체 의사소통) 사용 데이터를 7개월간 수집·정제하고, 이를 기반으로 LLM을 파인튜닝한 뒤 3개월간 일상에서 직접 사용한 자동민족학적 사례를 제시한다. 개인화된 모델이 텍스트 제안을 제공함에 따라 사용자의 자율성, 정체성 표현, 프라이버시가 어떻게 재구성되는지를 탐색하고, 설계 시 고려해야 할 위험과 기회를 도출한다.
상세 분석
이 논문은 기술적 가능성에 머무르지 않고, 초개인화된 LLM이 실제 AAC 사용자의 일상 대화에 미치는 심리사회적 영향을 장기적 자동민족학(autoethnography) 방법론으로 심층 탐구한다. 첫 번째 단계에서 저자는 7개월간 모든 AAC 입력을 로그로 남겼으며, 이 과정 자체가 ‘데이터 로그에 대한 인식’ 때문에 특정 어휘(예: 속어, 은어, 어두운 유머)를 회피하게 만드는 자기 검열(self‑censorship) 현상을 초래한다. 두 번째 단계에서는 로그 데이터를 정제하고, 저자가 “공개하고 싶지 않은” 표현을 의도적으로 제외함으로써 모델이 ‘사회적으로 안전한’ 버전의 자아만을 학습하도록 만든다. 이는 모델이 사용자의 다면적 정체성 중 일부를 의도적으로 억제하고, 결과적으로 ‘좋은’ 이미지만을 강화하는 편향을 야기한다는 점에서 중요한 윤리적 함의를 가진다. 세 번째 단계에서 저자는 파인튜닝된 모델을 일상 AAC 앱에 통합해 3개월간 사용하면서, 모델이 사용자의 문화적·언어적 특성을 높은 정확도로 재현함을 확인한다. 그러나 모델이 과거에 기록된 민감한 개인 정보(예: 가족사, 의료 기록)를 부적절한 대화 상황에 자동으로 삽입하는 사례가 발생해 프라이버시 침해 위험을 드러낸다. 특히, 모델이 ‘맥락 인식’ 없이 이전 대화에서 추출한 정보를 재활용함으로써 대인 관계에서 오해를 일으키거나 사용자의 사회적 이미지에 손상을 줄 수 있다. 논문은 이러한 현상을 ‘컨텍스트 전이 오류(contextual leakage)’라고 명명하고, 실시간 피드백 루프와 사용자 제어 메커니즘의 부재가 문제를 가중시킨다고 지적한다. 또한, 시스템 지연(latency)과 네트워크 불안정이 제안 수용률을 낮추고 인지적 부하를 증가시켜, 실제 AAC 사용 환경에서의 ‘반응성(responsiveness)’과 ‘사용자 주도성(user agency)’이 핵심 설계 목표가 되어야 함을 강조한다. 마지막으로, 저자는 단일 사용자 사례이지만, 초개인화 AI가 제공하는 ‘속도·유창성’과 ‘정체성·프라이버시’ 사이의 트레이드오프가 보조기술 전반에 걸쳐 일반화될 가능성을 제시하며, 다중 사용자·다문화적 맥락에서의 확장 연구 필요성을 역설한다.
댓글 및 학술 토론
Loading comments...
의견 남기기