AI 참여가 전문가 조언 신뢰에 미치는 영향: 인식 의존성 관점

AI 참여가 전문가 조언 신뢰에 미치는 영향: 인식 의존성 관점
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 연구는 AI 보조가 인간 전문가와 협업할 때 사용자가 보이는 신뢰 변화를 실험적으로 조사한다. 대학 과목 일정 설계 과제를 통해 ‘AI 미사용’, ‘AI 반응형(자동 감시)’, ‘AI 사전형(전문가가 직접 호출)’ 세 가지 조건을 비교하였다. 결과는 전문가가 오류를 범했을 때 신뢰가 크게 감소하고, 오류가 없더라도 사전형 AI 사용이 전문가의 전문성 인식을 낮춘다는 점을 보여준다. AI 자체에 대한 신뢰는 상황에 크게 좌우되지 않았으며, 전반적인 재사용 의향은 전문가 오류에 가장 민감하게 반응한다.

상세 분석

이 논문은 인간‑AI 하이브리드 팀에서 ‘에피스테믹 트러스트(epistemic trust)’라는 개념을 중심으로 설계·분석하였다. 에피스테믹 트러스트는 전문가의 전문성(expertise), 선의(benevolence), 정직성(integrity) 세 축으로 분해될 수 있는데, 저자들은 이를 Hendriks et al.의 설문지와 Riedl et al.의 엔터티‑레벨 신뢰 측정 도구로 정량화하였다. 실험은 77명의 참가자를 대상으로 온라인 학사 상담 시뮬레이션을 진행했으며, ‘AI 미사용(C_adv_only)’, ‘전문가가 AI를 직접 호출하는 사전형(C_proactive_error / C_proactive_noerror)’, ‘AI가 자동으로 오류를 감시·수정하는 반응형(C_reactive_error / C_reactive_noerror)’의 다섯 조건을 설정했다.

핵심 결과는 다음과 같다. 첫째, 전문가가 오류를 범했을 때(특히 사전형 AI가 개입한 경우) 참가자들은 전문가의 전문성 점수를 유의하게 낮게 평가했으며, 이는 H2와 H1a를 부분적으로 지지한다. 둘째, 오류가 없을 때는 AI의 존재 여부가 전문가 전문성 인식에 큰 차이를 만들지 않았다(H3가 기각). 즉, 사전형 AI가 ‘전문가가 스스로 검증을 요청한다’는 신호가 오히려 전문가의 역량을 의심하게 만든다. 셋째, benevolence와 integrity에 관한 차이는 오류 유무와 관계없이 통계적으로 유의미하지 않아, 사용자는 AI 개입이 전문가의 선의·정직성에 미치는 영향을 크게 인식하지 못한다는 점을 시사한다(H4, H5 기각). 넷째, 전반적인 100점 척도 신뢰와 재사용 의향은 오류 상황에 가장 민감했으며, 특히 사전형 AI가 오류를 잡아줄 때 재사용 의향이 가장 낮았다(H6, H7 부분 지지).

이러한 결과는 Parasuraman et al.이 제시한 ‘자동화 수준(automation level)’과 ‘주도권 배분(initiative allocation)’ 프레임워크와 일맥상통한다. 전문가가 AI에 의존해 검증을 요청하면, 사용자는 ‘결정 권한이 AI에게 이전되었다’는 인지를 하고, 이는 전문가의 epistemic 책임을 약화시킨다. 반면, 자동 감시형 AI는 전문가가 주도적으로 판단을 내린 뒤 뒤에서 보조한다는 인상을 주어, 전문가의 전문성 평가에 큰 영향을 주지 않는다.

디자인 시사점으로는 (1) AI 개입 시점과 가시성을 명확히 표시해 전문가의 책임감을 유지하도록 해야 한다, (2) 오류 정정이 필요할 때는 AI가 자동으로 개입하도록 설계해 전문가가 ‘도움을 청한다’는 인상을 최소화해야 한다, (3) 사용자에게 AI의 역할과 한계를 투명하게 전달함으로써 AI 자체에 대한 신뢰는 유지하면서도 전문가에 대한 신뢰 손실을 방지할 수 있다.


댓글 및 학술 토론

Loading comments...

의견 남기기