대학 상담에서 멀티모달 대형 언어 모델 활용 방안과 시기
초록
본 연구는 중국 대학생을 대상으로 멀티모달 대형 언어 모델(MLLM)의 심리치료 통합 가능성을 탐색한다. 세 차례의 인터뷰·설문을 통해 MLLM을 보조 도구로 활용하는 것이 현재 가장 적합하며, 실시간 감정 인식·트리아지 매칭 등 기능이 요구되는 동시에 개인정보 보호와 모델 신뢰성에 대한 우려가 존재함을 밝혀냈다.
상세 분석
본 논문은 인간‑컴퓨터 상호작용(HCI)과 임상심리학을 교차시킨 다중 이해관계자 연구로서, 기존 LLM 기반 챗봇이 텍스트만을 처리하던 한계를 멀티모달 입력(음성·영상·표정)으로 극복하려는 시도를 체계적으로 검증한다. 연구 설계는 ① 치료사 15명을 대상으로 한 포커스 그룹(경력별 3‑5년, 5‑10년, 10년 이상), ② 정신건강 문제를 겪는 대학생 20명을 대상으로 한 반구조화 인터뷰, ③ 전국 300여 명의 대학생을 대상으로 한 온라인 설문이라는 3단계 혼합방법을 채택하였다.
첫 번째 단계에서 치료사들은 MLLM이 “감정 플래그”와 “실시간 비언어 신호 분석”을 제공하면 치료 과정의 초기 평가와 위기 대응에 큰 도움이 될 것이라 기대했으며, 동시에 모델이 제시하는 해석이 인간 치료사의 임상 판단을 왜곡할 위험을 지적했다. 두 번째 단계에서는 학생들이 ‘맞춤형 아바타’와 ‘비대면 실시간 피드백’에 높은 호감을 보였지만, “내가 말하는 내용이 데이터베이스에 저장돼 남용될까?”라는 프라이버시 우려가 강하게 나타났다. 세 번째 설문에서는 68%가 MLLM을 ‘보조 도구’로 선호했으며, 55%는 ‘전적인 치료 제공자’ 역할에는 신뢰하지 못한다는 결과가 도출되었다.
핵심 인사이트는 다음과 같다.
- 역할 정의의 필요성 – 현재 기술 수준에서는 MLLM을 ‘감정 트리아지·세션 요약·자료 검색’ 등 제한된 기능에 국한시키는 것이 임상 안전성을 확보한다.
- 사회적 정체성과 상대적 지위 – 사용자는 자신과 모델 간의 ‘지위 차이’를 인식하며, 이는 수용도에 직접적인 영향을 미친다. 따라서 모델의 ‘전문가성’보다 ‘동료성’·‘친근감’이 강조된 인터페이스 설계가 요구된다.
- 프라이버시·윤리 가이드라인 – 데이터 수집·저장·활용에 대한 투명한 정책과, 사용자가 언제든지 데이터를 삭제·비공개 전환할 수 있는 권한 부여가 필수적이다.
- 디지털 치료 동맹(Digital Therapeutic Alliance) – 감정 공감, 목표 정렬, 지속적 피드백 등 인간 치료사와 동일한 동맹 요소를 디지털화하려면, 멀티모달 감정 인식 정확도와 실시간 인터랙션 설계가 핵심 기술 과제로 남는다.
결론적으로, MLLM은 현재 ‘보조·지원’ 단계에 머물러야 하며, 기술적 성숙도와 윤리·법적 프레임워크가 동시에 발전할 때 비로소 독립적인 치료 도구로 전환될 수 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기