인공지능 윤리의 새로운 물음: 인공 도덕 에이전트 연구에 대한 다각적 응답
초록
**
본 논문은 van Wynsberghe와 Robbins(2018)의 인공 도덕 에이전트(AMA) 개발 이유 비판에 대해 10명의 기계 윤리학자가 각각의 관점으로 답변한다. ‘불가피성’, ‘해악 방지’, ‘공공 신뢰’, ‘비도덕적 사용 방지’, ‘인간보다 우수한 도덕 추론’, ‘인간 도덕성 이해 증진’이라는 여섯 가지 논거에 대해 저자들은 동의·이의·보완을 제시하며, 궁극적으로 AMA 연구가 과학적·사회적으로 가치가 있음을 재확인한다.
**
상세 분석
**
이 논문은 기계 윤리학 분야가 아직 초기 단계이며, 연구자들 사이에 목표와 방법론에 대한 통일된 합의가 없다는 점을 명확히 한다. 저자들은 먼저 AMA를 ‘암묵적(implicit)’, ‘명시적(explicit)’, ‘완전(full)’ 세 단계로 구분하고, 각 단계가 요구하는 기술적·철학적 전제조건을 검토한다. 예를 들어, Poulsen은 의료 현장에서 제한된 도덕 자유를 가진 명시적 AMA가 필요하다고 주장하면서, 수술 로봇처럼 안전이 최우선인 경우에는 암묵적 설계가 더 적합하다고 강조한다. Anderson 부부는 윤리 원칙과 실천 가이드라인을 개발·배포함으로써 실제 시스템에 윤리성을 주입하려는 실용주의적 접근을 제시한다. Byford는 윤리 설계와 비즈니스·데이터·디자인 윤리의 통합을 강조하며, AMA가 단일 해결책이 아니라 복합적인 윤리 퍼즐의 한 조각임을 역설한다. Fossa는 ‘인간‑기계 은유’를 경계하고, ‘agency’와 ‘morality’라는 용어가 기계에 적용될 때 발생하는 언어적·인지적 함의를 비판한다. Neely는 기술이 완전한 인공지능에 도달하기 전이라도 윤리적 사전 검토가 필요하다고 주장하며, 현재 자율주행차 사례를 들어 실증적 위험을 강조한다. Rosas는 인간 수준 지능에 도달한 AI가 ‘인격’에 가까워질 경우 도덕적 판단 능력이 필수적이라고 주장하지만, 절대적 도덕 자유는 허용하지 않아야 한다는 제한적 입장을 제시한다. 마지막으로 Winfield는 AMA 연구를 순수 과학적 탐구로 보며, 도덕 행동을 모델링함으로써 인간 도덕성에 대한 새로운 통찰을 얻을 수 있다고 강조한다.
각 저자는 van Wynsberghe와 Robbins이 제시한 여섯 가지 이유에 대해 다음과 같이 입장을 정리한다. ① 불가피성: Poulsen은 의료 분야의 인력 부족을 근거로 ‘필요성’은 인정하지만 ‘불가피성’에는 동의하지 않는다. ② 해악 방지: Anderson 부부는 윤리 원칙을 통해 해악을 최소화하려는 실천적 방안을 제시한다. ③ 공공 신뢰: Byford는 투명한 설계와 표준화가 신뢰 구축에 핵심이라고 주장한다. ④ 비도덕적 사용 방지: Fossa는 언어적 프레임이 비도덕적 사용을 정당화하는 위험을 지적한다. ⑤ 인간보다 우수한 도덕 추론: Rosas는 AI가 인간 수준 지능에 도달하면 도덕 추론이 가능해질 수 있음을 인정하지만, 인간보다 ‘우수’하다는 주장에는 회의적이다. ⑥ 인간 도덕성 이해 증진: Winfield는 AMA 모델링이 인간 도덕 메커니즘을 과학적으로 탐구하는 도구가 될 수 있음을 강조한다.
결론적으로, 저자들은 ‘모든 이유에 전적으로 동의하지는 않지만, AMA 연구 자체가 과학적·사회적 가치를 지닌다’는 공통된 입장을 표명한다. 이는 기계 윤리학이 하나의 통일된 로드맵보다는 다원적 논의를 통해 점진적으로 발전해야 함을 시사한다.
**
댓글 및 학술 토론
Loading comments...
의견 남기기