생성형 사회 로봇의 설득 인터랙션 연구

생성형 사회 로봇의 설득 인터랙션 연구
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 대형 언어 모델을 탑재한 사회 로봇의 설득 능력을 평가하기 위한 실험 프레임워크를 제시하고, 로봇 외형과 자기 인식 설정을 변형한 파일럿 연구를 수행한다. 정성적 분석을 통해 참여자들은 로봇을 친절하고 유능하게 인식했지만, 응답 지연·음성 인식 오류 등 기술적 한계를 지적하였다. 설득 효과는 상황에 따라 달라졌으며, 정중한 언어와 표현적 제스처가 긍정적 반응을 이끌었지만, 보다 개인화된 논거와 명확한 사회적 역할 제시가 필요함을 확인하였다.

상세 분석

이 연구는 생성형 인공지능(Large Language Model, LLM)을 기반으로 한 사회 로봇(GSR)의 설득 메커니즘을 체계적으로 탐구하려는 최초 시도 중 하나이다. 기존 HRI(인간‑로봇 상호작용) 연구는 주로 사전 스크립트된 대화나 제한된 응답 집합을 사용했지만, 본 논문은 LLM이 생성하는 자유형 텍스트를 활용해 ‘열린 대화’를 구현하였다. 이를 위해 세 가지 의사결정 시나리오(기부, 교육, 영양)를 설계하고, 각 시나리오마다 초기 자원 배분 후 로봇이 설득적 메시지를 제시하도록 구성하였다.

실험 변수는 로봇의 외형(의복 착용 여부)과 자기 인식(self‑knowledge) 프롬프트(로봇이 자신의 복장·역할을 인식하도록 하는 시스템 프롬프트) 두 축으로 설정하였다. ‘Clothed & Self‑Knowledge’ 조건에서는 로봇이 정장과 안경을 착용하고, 자신을 전문 고문으로 인식하도록 프롬프트가 제공돼, 설득력에 미치는 사회적 신뢰와 권위 효과를 검증하고자 했다.

정성적 자료는 사전·사후 설문, 인터랙션 전사, 사후 인터뷰를 통해 수집했으며, 내용 분석을 통해 설득 효과, 대화 품질, 로봇의 커뮤니케이션 전략을 도출했다. 주요 발견은 다음과 같다. 첫째, 참여자들은 로봇을 ‘친절하고 유능’하다고 평가했지만, 응답 지연(≈3초)과 음성 인식 오류가 몰입감을 저해했다. 둘째, 설득 성공률은 상황에 따라 크게 달라졌으며, 특히 ‘논리적·정중한 제안 + 표현적 제스처’가 높은 수용도를 보였다. 셋째, 로봇이 자신의 역할·전문성을 명시적으로 강조할 경우(자기 인식 조건) 신뢰도가 상승했지만, 여전히 ‘개인 맞춤형 논거’와 ‘명확한 사회적 역할 정의’가 부족하다는 피드백이 있었다.

이러한 결과는 Cialdini의 설득 원리와 ELM(Elaboration Likelihood Model)을 로봇 인터랙션에 적용할 때, ‘중심 경로’(논리·전문성)와 ‘주변 경로’(친절·제스처)의 균형이 중요함을 시사한다. 또한, LLM 기반 로봇은 자유형 대화가 가능하지만, 실시간 턴테이킹 제한, 멀티모달 입력(시각·다중 화자) 부재 등 기술적 제약이 실험 설계와 결과 해석에 영향을 미친다.

연구는 파일럿 규모(12명)로 통계적 일반화는 제한적이지만, 정성적 인사이트를 통해 향후 대규모 실험 설계 시 변수 통제와 프롬프트 엔지니어링, 시스템 응답 속도 최적화가 필요함을 강조한다. 특히, 로봇의 ‘자기 인식’ 프롬프트가 설득력에 미치는 효과를 정량화하려면, 보다 정교한 조작 변수와 다중 피험자 설계가 요구된다.


댓글 및 학술 토론

Loading comments...

의견 남기기