딥씽크의 이상한 편향: 대형 언어 모델의 문화적 정렬과 프롬프트 언어 및 문화 프롬프팅의 효과
초록
이 연구는 호프스테드의 문화 차원 설문(VSM13)을 활용해 여러 LLM(DeepSeek-V3, V3.1, GPT-4, GPT-4.1, GPT-4o, GPT-5)의 문화적 정렬을 미국과 중국 기준으로 분석했다. 중국 기업 DeepSeek의 모델조차 영어 프롬프트에서 미국 문화에 강하게 정렬되었으며, 중국 문화와의 강한 정렬은 어려웠다. 프롬프트 언어(영어/중국어) 변경과 문화 프롬프팅(시스템 프롬프트로 국가 지정)은 GPT-4o, GPT-4.1 같은 일부 모델의 정렬을 조정하는 데 효과적이었으나, GPT-5와 DeepSeek 모델에서는 효과가 제한적이었다. 이는 LLM의 보편적인 ‘WEIRD’(서구적, 교육받은, 산업화된, 부유한, 민주주의) 편향을 재확인하며, 모델 개발 지역보다 훈련 데이터의 영향이 더 큼을 시사한다.
상세 분석
본 연구의 방법론적 핵심은 사회과학에서 정립된 호프스테드 문화 차원 이론을 LLM 평가에 체계적으로 적용한 점이다. 각 모델을 별개의 ‘인구 집단’으로 간주하고, 모델별로 6가지 조건(언어 2종 x 문화프롬프트 3종) 하에 각 20회의 설문 응답을 생성해 통계적 신뢰도를 확보했다. 이는 선행연구들의 소규모 샘플 한계를 넘어선 견고한 설계다.
기술적 통찰은 다음과 같다. 첫째, 모델 아키텍처와 훈련 데이터의 압도적 영향력이다. 중국 기업의 DeepSeek 모델이 미국 문화에 강하게 정렬된 것은, 비록 중국어 데이터도 포함되었겠으나, 모델 훈련에 사용된 대규모 영어 코퍼스(위키피디아, 학술 논문, 웹 텍스트 등)가 보유한 ‘WEIRD’ 문화 프레임이 모델의 세계관을 지배했음을 의미한다. 이는 단순한 지역성 문제를 넘어 AI 지식의 근본적 편향을 드러낸다.
둘째, 프롬프트 엔지니어링의 효과와 한계가 모델에 따라 극명히 달랐다. GPT-4o와 GPT-4.1은 ‘언어 변경’과 ‘문화 프롬프팅’에 모두 유연하게 반응해 목표 문화로의 정렬을 개선할 수 있었다. 이는 모델이 보유한 다문화적 표현력과 컨텍스트 이해 능력이 상대적으로 높음을 시사한다. 반면, DeepSeek 모델과 GPT-5는 이러한 외부 지시에 대해 ‘고정적’인 반응을 보였는데, 이는 더 큰 규모와 더 강력한 내부 표현(inner representation)이 오히려 초기 훈련에서 학습된 문화적 편향을 고정시키는 ‘편향 정착’ 현상을 일으켰을 가능성이 있다.
셋째, 언어 간 비대칭성이 관찰되었다. 영어 프롬프트에 중국 문화 프롬프트를 추가하는 전략은 정렬 개선 효과(29.8%)가 매우 컸던 반면, 중국어 프롬프트에 미국 문화 프롬프트를 추가하는 효과는 미미했다(1.5%). 이는 영어가 LLM에게 ‘중립적’이거나 ‘기본적’인 표현 공간으로 작동하는 반면, 중국어는 특정 문화적 컨텍스트와 강하게 결합된 ‘특수한’ 표현 공간으로 인코딩되었을 수 있음을 시사한다. 즉, 영어의 문화적 유연성이 중국어보다 높다는 것이다.
이러한 발견은 단순한 성능 평가를 넘어, 글로벌 서비스를 위한 LLM 배포 시 반드시 고려해야 할 문화적 적응 전략에 대한 실용적 가이드라인을 제시한다.
댓글 및 학술 토론
Loading comments...
의견 남기기