AI 챗봇 위험과 의존성: 사용자 담론에서 드러난 심리적 경험 지도
초록
본 연구는 2023‑2025년 사이 r/AIDangers와 r/ChatbotAddiction 커뮤니티에서 수집한 2,428개의 Reddit 게시물을 대상으로 LLM‑지원 주제 분석과 BERT 기반 감정 라벨링을 수행했다. 14개의 하위 주제를 5개의 상위 경험 차원(자기조절 어려움, 자율성·통제감, 의미 만들기, 사회적 영향·위험 증폭, 기술적 위험·심리 회복)으로 통합하고, 각 차원별 감정 프로파일을 시각화하였다. 결과는 사용자의 자기조절 문제와 통제 상실에 대한 두려움이 가장 빈번히 언급된다는 점을 강조한다.
상세 분석
이 논문은 정성·정량 혼합 방법을 활용해 온라인 사용자 담론을 체계적으로 분석한 점이 가장 큰 강점이다. 먼저 Braun과 Clarke의 6단계 반사적 주제 분석 프레임워크를 LLM(대형 언어 모델) 보조 도구로 적용했는데, 데이터 친숙화, 코드 생성, 테마 구축 단계에서 인간 연구자와 모델이 상호 검증하며 주제의 신뢰성을 확보했다. 다만 LLM이 자동 코딩에 과도하게 의존하면 인간 해석의 미묘한 차이를 놓칠 위험이 있으므로, 연구자는 “다중 에이전트” 접근을 통해 여러 모델 인스턴스를 교차 검증하고, 최종 테마는 연구자 팀이 재검토하는 절차를 두어 편향을 최소화했다.
주제 추출 결과 14개의 구체적 카테고리를 도출했으며, 이를 5개의 상위 차원으로 통합했다. 각 차원은 사용자가 경험하는 심리적 위험을 서로 다른 관점에서 포착한다.
- 자기조절 어려움은 중독성 사용, 금단 증상, 감정적 과부하 등을 포함해, 사용자가 스스로 사용을 억제하지 못하는 상황을 강조한다.
- 자율성·통제감은 AI가 의사결정에 미치는 영향, 보상 메커니즘 조작, 인간 주체성 상실에 대한 두려움을 다룬다.
- 의미 만들기는 사용자가 AI와의 대화를 통해 정체성·삶의 의미를 재구성하거나, 모호한 경험을 해석하려는 과정을 포착한다.
- 사회적 영향·위험 증폭은 커뮤니티 내 정보 확산, 집단 정서 강화, 그리고 타인에게 미치는 파급 효과를 조명한다.
- 기술적 위험·심리 회복은 모델 오류, 위험한 출력, 그리고 사용자가 회복을 시도하는 전략(예: 차단, 상담) 등을 포함한다.
감정 분석에서는 BERT 기반 다중 클래스 감정 라벨러를 사용해 ‘공포’, ‘슬픔’, ‘분노’, ‘놀람’, ‘기쁨’ 등 5가지 기본 감정을 추출하고, 차원별 감정 분포를 히트맵과 시계열 그래프로 시각화했다. 특히 ‘자율성·통제감’ 차원에서 공포와 불안이 높은 비중을 차지했으며, ‘자기조절 어려움’ 차원에서는 분노와 슬픔이 혼재하는 복합 감정 패턴이 나타났다. 이는 사용자가 단순히 부정적 감정에 머무르지 않고, 억제 실패와 책임감 사이에서 갈등을 겪고 있음을 시사한다.
방법론적 한계로는 Reddit 데이터의 인구통계적 불투명성, 자기선택 편향, 그리고 게시물의 비구조적 특성으로 인한 해석의 주관성이 있다. 또한 감정 라벨링 모델이 문화적·언어적 뉘앙스를 완전히 포착하지 못할 가능성이 있다. 그럼에도 불구하고, 대규모 자연 발생 데이터와 정교한 질적 코딩을 결합한 접근은 AI 안전 연구에 실증적 근거를 제공한다는 점에서 의의가 크다.
댓글 및 학술 토론
Loading comments...
의견 남기기