인공지능에게도 책임을 묻는다
초록
본 연구는 인간이 인공지능(AI)과 집단(기업)에게 부여하는 비난과 도덕적 잘못 판단을, 인지·동기 상태와 행동 결과라는 기본 요소로 분해해 비교한다. 인간, AI, 기업 세 유형을 대상으로 실험을 진행해 각 요소별 차이를 분석함으로써, AI에 대한 도덕적 책임 부여가 어떤 조건에서 강화되거나 약화되는지를 밝힌다.
상세 분석
이 논문은 도덕 판단을 ‘비난(blame)’과 ‘잘못(wrongness)’이라는 두 차원으로 나누고, 이를 다시 ‘인식(epistemic) 상태’, ‘동기(conative) 상태’, 그리고 ‘행동 결과(consequences)’라는 세 가지 기본 요소로 분해한다는 독창적인 방법론을 제시한다. 이러한 분해는 기존 연구가 인간과 인공지능을 단순히 ‘주체’와 ‘객체’로 구분해 온 한계를 넘어, 판단 과정에서 어떤 심리적 메커니즘이 작동하는지를 세밀히 탐색한다는 점에서 의미가 크다.
실험 설계는 세 그룹(인간, 인공지능, 기업)에게 동일한 도덕적 딜레마 상황을 제시하고, 각 상황에 대해 참가자들이 인식(예: 행위자가 상황을 충분히 알았는가), 동기(예: 의도적·비의도적), 결과(예: 피해 규모) 각각에 대해 얼마나 책임을 부여하는지를 7점 리커트 척도로 측정한다. 이때 ‘인공지능’은 고도의 자율성을 가정한 시나리오와 제한된 프로그래밍만을 가진 시나리오 두 가지 버전으로 제시돼, 기술적 능력 차이가 판단에 미치는 영향을 검증한다.
주요 결과는 다음과 같다. 첫째, 인지 상태에 대한 판단은 인간과 기업에 대해 유사하게 높게 나타났지만, 인공지능에 대해서는 낮은 점수를 보였다. 이는 사람들은 AI가 상황을 ‘이해’하거나 ‘알아차렸다’는 가정에 회의적이라는 것을 의미한다. 둘째, 동기 평가에서는 인간과 기업 모두 의도성을 크게 강조했으나, AI는 ‘프로그래밍된 목표’라는 설명 때문에 의도성 점수가 중간 수준에 머물렀다. 셋째, 결과에 대한 책임 부여는 세 대상 모두에서 크게 차이나지 않았으며, 피해 규모가 클수록 비난과 잘못 판단이 모두 상승했다.
이러한 패턴은 ‘책임의 전이(Responsibility Transfer)’ 현상을 시사한다. 즉, 인간이 직접적인 의도와 인지를 갖지 않은 경우(예: 기업의 복잡한 조직 구조)에도 사람들은 여전히 높은 책임을 부여하지만, AI는 ‘주체성’이 결여된 것으로 인식돼 인지·동기 요소에서 낮은 점수를 받는다. 그러나 결과가 명확히 악영향을 미칠 경우, AI에게도 결과 중심의 비난이 증가한다는 점은 ‘결과주의적 책임’이 도덕 판단에 강하게 작용함을 보여준다.
연구는 또한 문화적·법적 함의를 제시한다. 현재 많은 국가에서 AI에 대한 법적 책임을 기업이나 개발자에게 전가하고 있는데, 본 실험 결과는 일반 대중이 이미 ‘결과 중심’ 책임을 AI 자체에 부여하려는 경향이 있음을 보여준다. 따라서 정책 입안자는 AI의 ‘인식·동기’ 능력을 어떻게 정의하고, 이를 법적 책임 기준에 어떻게 반영할지 신중히 고려해야 한다.
마지막으로, 연구는 한계점도 명시한다. 실험에 사용된 시나리오는 가상의 상황에 불과하며, 실제 AI 시스템의 복잡성(예: 학습 과정, 불투명성)과 사용자 경험이 판단에 미치는 영향을 충분히 포괄하지 못한다. 향후 연구에서는 실제 AI 제품을 사용한 경험 기반 설문이나, 문화권별 비교를 통해 보다 일반화된 결론을 도출할 필요가 있다.