AI 서사 해체: 권력과 약속의 비판적 고찰

AI 서사 해체: 권력과 약속의 비판적 고찰
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 ChatGPT 출시 이후 급증한 AI 담론을 분석한다. ‘에이전시·자율성·진실성·예측·일반성·중립성·비정치적 최적화·지속가능성·민주화·대량 실업·유토피아·디스토피아’ 등 12가지 핵심 서사를 비판적 컴퓨터 과학·STS·데이터 보호·철학·기호학 관점에서 재검토하고, “Zeitgeist AI”라는 개념을 도입해 AI라는 용어가 과도하게 포괄적으로 사용되는 현상을 지적한다. 결론에서는 인간 중심의 거버넌스와 새로운 서사 전환을 촉구한다.

상세 분석

논문은 먼저 AI 용어의 역사적·기술적 변천을 조명한다. 1955년 ‘인공지능’이라는 명칭이 연구 자금 확보를 위한 구호로 등장했으며, 이후 ELIZA와 같은 초기 챗봇이 인간‑기계 유사성에 대한 과대 기대를 낳았다. 저자는 이러한 역사가 현재의 ‘AI 혁명’ 서사와 어떻게 연결되는지를 보여준다. 핵심 분석은 두 가지 AI 유형—도메인‑특화 인공지능(ANI)과 일반 인공지능(AGI)—을 구분하고, 실제 존재하는 시스템은 모두 ANI에 속한다는 점을 강조한다. 이를 바탕으로 “Zeitgeist AI”라는 개념을 제시해, 빅데이터, 알고리즘, 로봇, 자동화 등 광범위한 디지털 기술을 무분별하게 AI라 부르는 현상을 비판한다.

다음으로 12가지 서사를 각각 검증한다.

  1. 에이전시: AI가 의도와 책임을 가진 주체가 아니라 설계·운영자의 의도에 의해 결정되는 도구임을 논증한다. 무작위성은 설계 단계에서 삽입된 파라미터이며, ‘자율적 의사결정’이 아니라 ‘통계적 선택’이다.
  2. 자율성: 기술적 자율성은 제한된 상황(예: 공장 자동화)에서 목표와 수단이 사전에 정의된 경우에만 의미가 있다. ‘자율 주행’은 실제로 ‘자동화된 운전 보조’에 불과하므로, 용어 남용을 경고한다.
  3. 진실성: AI는 진실을 판단하거나 거짓을 의도적으로 말할 수 없으며, 모델이 학습한 데이터와 구조에 따라 출력을 생성한다. 따라서 ‘AI가 거짓말을 한다’는 서사는 인간의 인지적 오류를 AI에 투사한 것에 지나지 않는다.
  4. 예측·일반성: LLM과 같은 시스템은 통계적 패턴에 기반한 ‘예측’이며, 인간 수준의 일반화 능력을 갖추지 못한다. ‘범용 AI’라는 기대는 과학적 근거가 부족하다.
  5. 중립성·객관성: 데이터와 알고리즘에 내재된 편향은 설계·운영 단계에서 발생한다. AI가 중립적이라고 주장하는 것은 정치·경제적 이해관계가 가려진 상태에서의 허위 진술이다.
  6. 비정치적 최적화: 최적화 목표 자체가 가치 판단을 내포한다. 예를 들어 비용 최소화는 사회적 불평등을 심화시킬 수 있다.
  7. 지속가능성 게임 체인저: AI가 에너지 효율을 개선할 가능성은 있지만, 대규모 모델 학습·운영에 소모되는 전력은 오히려 환경 부담을 가중시킨다.
  8. 민주화: 접근성 확대는 기술적 민주화를 의미하지만, 실제 의사결정 권한은 여전히 기업·정부에 집중된다.
  9. 대량 실업: 자동화가 일자리 감소를 초래할 가능성은 존재하지만, 새로운 직업군 창출과 재교육 정책이 동반되지 않으면 사회적 갈등을 유발한다.
  10. 유토피아·디스토피아: AI를 ‘구원자’ 혹은 ‘파멸자’로 이분법적으로 보는 서사는 복잡한 사회·경제적 요인을 간과한다.

전반적으로 저자는 서사들이 기술적 사실보다 정치·경제적 이해관계에 의해 형성된다는 점을 강조한다. 또한, 서사 분석을 통해 드러난 권력 구조—데이터 소유, 알고리즘 설계, 규제 권한—를 재조명하고, 인간 중심의 거버넌스와 투명한 책임 메커니즘을 제안한다.


댓글 및 학술 토론

Loading comments...

의견 남기기