조건부 동반자 정신건강 장애인들의 LLM 활용 실태
초록
본 연구는 영국에 거주하는 정신건강 장애인 20명을 대상으로 LLM(대형 언어 모델) 사용 경험을 심층 인터뷰하고, 반사적 주제 분석을 통해 사용 동기·제한·디자인 요구를 도출하였다. 사용자는 즉각성, 비판단적 태도, 자기 주도적 털어놓기, 인지 재구성, 관계 형성이라는 다섯 가지 상황에서 LLM을 활용했으며, 위기·외상·복합 사회정서 상황에서는 한계를 설정했다. 연구는 경계 설정을 사용자 주체성으로 보고, 안전·책임·투명성을 강조한 설계·거버넌스 방안을 제시한다.
상세 분석
이 논문은 인간‑중심 컴퓨팅(HCI) 관점에서 LLM이 정신건강 지원 도구로서 실제 사용되는 맥락을 탐구한다. 표본은 영국 내 정신건강 진단을 받은 성인 20명으로, 모두 LLM(예: ChatGPT, Claude, Gemini, Grok)을 비공식적인 정서 지원 목적으로 사용한 경험이 있다. 연구자는 반사적 주제 분석(reflexive thematic analysis)을 적용해 인터뷰 데이터를 반복적으로 코딩하고, 연구자 주관성을 지속적으로 검토하며 주제를 도출하였다.
핵심 발견은 두 축으로 정리된다. 첫 번째 축은 ‘조건부·상황적 활용’이다. 참여자들은 (1) 즉각성—24/7 접근 가능성과 즉시 응답을 통해 급박한 감정 조절에 활용, (2) 비판단적 태도—인간 상담가와 달리 판단이나 낙인이 없다는 점을 선호, (3) 자기 주도적 털어놓기—시간과 장소에 구애받지 않고 속도와 깊이를 조절하며 이야기할 수 있음, (4) 인지 재구성—LLM이 제시하는 질문·재진술을 통해 사고의 틀을 바꾸는 ‘인지 재프레이밍’ 도구로 이용, (5) 관계 형성—대화가 지속될수록 친밀감과 신뢰가 형성돼 일종의 ‘디지털 동반자’ 역할을 수행한다는 점이다.
두 번째 축은 경계 설정이다. 참여자들은 과거의 인간 치료 경험을 기준으로 LLM의 역할을 명확히 구분한다. LLM은 경미·중등도 스트레스, 일상적 고민, 침입적 사고, 외로움 등에서 보조적 효용을 인정했지만, **위기 상황(자살 충동, 급성 외상, 복합 사회적 갈등)**에서는 인간 전문가의 판단과 개입이 필수라고 강조한다. 또한, 개인정보 보호와 모델의 ‘환각·오답’ 위험을 인지하고, 사용자가 스스로 위험을 관리해야 하는 부담을 느끼는 점을 지적한다.
디자인·거버넌스 측면에서 저자는 다음과 같은 권고를 제시한다. ① 투명성—모델의 한계와 데이터 출처를 명시하고, 사용자가 언제 ‘전문가 전환’이 필요한지 알 수 있는 신호 체계 구축, ② 안전 가드레일—위기 감지 알고리즘과 자동 에스컬레이션(예: 긴급 전화 연결) 기능을 내장, ③ 사용자 중심 경계 설정 도구—사용자가 스스로 위험 수준을 조절하고, 기록을 관리할 수 있는 인터페이스 제공, ④ 생태계 통합—LLM을 기존 정신건강 서비스와 연계해 보조적 역할을 명확히 하고, 의료 전문가가 검토·피드백할 수 있는 흐름 설계, ⑤ 규제·책임 명시—기업과 정책 입안자가 안전성 검증·책임 소재를 명확히 하는 프레임워크 필요.
연구의 한계로는 샘플 규모와 지역(영국) 편중, 자가 보고식 인터뷰에 의존한 주관성, 그리고 LLM 버전 변화에 따른 일반화 가능성 문제가 있다. 향후 연구는 장기 사용 추적, 다양한 문화·언어권 사용자 포함, 실제 임상 환경에서의 통합 실험 등을 제안한다. 전반적으로 이 논문은 LLM이 ‘조건부 동반자’로서 인간 치료를 대체하지 않으며, 사용자가 스스로 경계를 설정하고 위험을 관리하는 과정이 핵심임을 실증적으로 보여준다.
댓글 및 학술 토론
Loading comments...
의견 남기기