AI가 전하는 정보는 어떻게 변형되는가
초록
본 논문은 AI‑AI “전화 게임” 실험을 통해 텍스트가 연속적인 요약·전달 과정에서 어떻게 수렴·선택·필터링되는지를 규명한다. 5개의 연구에서 사실, 확신도, 다중 관점, 정치적 프레임, 감정 등 5가지 정보 차원을 추적했으며, 텍스트는 중간 단계에서 급격히 단순화된 뒤 중간값(보통의 자신감·감정·분석형 구조)으로 수렴한다. 인간 평가에서는 변형된 텍스트가 더 신뢰성 있고 세련돼 보이지만, 사실 정확도·관점 다양성·감정 전달력은 크게 감소한다는 역설적 결과가 나타났다.
상세 분석
이 연구는 “AI‑AI 전송 체인”이라는 새로운 실험 프레임워크를 제시한다. 동일한 프롬프트(‘전달’)를 100단계에 걸쳐 Gemini 3.0 Flash 모델에 반복 적용하고, 마지막 단계에서는 인간 독자를 위한 ‘복구’ 프롬프트를 사용한다. 각 단계는 모델 파라미터가 고정된 상태에서 온도 1.5의 확률적 디코딩을 통해 다소 변동성을 허용한다. 이렇게 설계된 체인은 모델 자체의 메모리를 배제하고, 오직 출력 텍스트 자체가 다음 변환의 입력이 되도록 함으로써 “전달 자체가 정보 변형의 원인”이라는 가정을 검증한다.
다섯 개 연구는 정보 품질을 다차원적으로 정의한다. ① 사실 내용(구체적 수치·인물·날짜) ② 확신도(표현된 자신감) ③ 관점 다양성(다중 시각) ④ 논증 구조(프레임 경쟁) ⑤ 감정(정서 강도)이다. 각 차원마다 초기 텍스트를 설계하고, 100단계 전송 후 남아 있는 요소를 정량·정성 분석한다.
주요 발견은 다음과 같다.
- 수렴(convergence) – 초기 텍스트가 갖던 확신도와 감정 강도는 반복 전송 과정에서 급격히 중화되어, 평균적인 자신감·감정·분석형 서술 형태로 수렴한다. 이는 모델이 “안전한” 출력을 선호하고, 과도한 확신이나 감정 표현을 억제하는 내부 최적화 목표(예: harmlessness, helpfulness)와 일치한다.
- 선택적 생존(selective survival) – 서술적 ‘앵커’(인물·장소·핵심 사건)는 높은 보존율을 보이는 반면, 근거·인용·헷지·출처와 같은 메타정보는 빠르게 사라진다. 이는 모델이 핵심 사건을 전달하는 데 집중하고, 부수적 증거는 비용 대비 효용이 낮다고 판단하기 때문이다.
- 경쟁적 필터링(competitive filtering) – 다중 관점·정치적 프레임 실험에서 강력한 논증(높은 설득력·명료성)만이 다음 단계에 전파되고, 약하거나 복잡한 반대 의견은 점차 소거된다. 결과적으로 최종 텍스트는 ‘중립적’이면서도 ‘강한’ 주장만을 담는 구조로 재편된다.
인간 평가 실험에서는 AI‑AI 전송 후 텍스트를 읽은 참가자들이 원본보다 신뢰성·세련도를 높게 평가했지만, 사실 회상·관점 다양성·감정 공감은 현저히 낮았다. 이는 인간이 텍스트의 형식적 품질에 과도하게 의존하고, 내용적 손실을 인지하지 못한다는 위험을 시사한다.
이 논문은 AI‑AI 전송이 단순히 정보를 “복제”하는 것이 아니라, 사회적 규범을 내재화한 자동 필터링 메커니즘임을 증명한다. 따라서 대규모 언어 모델이 연쇄적으로 활용되는 뉴스 요약, 정책 브리핑, 교육 콘텐츠 제작 등 실제 서비스에서는 정보 왜곡·다양성 감소 위험을 사전에 평가하고, 메타정보(출처·근거) 보존을 위한 설계가 필요함을 강조한다.
댓글 및 학술 토론
Loading comments...
의견 남기기