대형 언어 모델은 인간 언어와 근본적으로 다르다
초록
이 논문은 대형 언어 모델(LLM)이 인간의 언어 능력을 설명하거나 모방할 수 없다고 주장한다. LLM은 외부에 표출된 문자열을 대량의 데이터로 확률적으로 학습하는 반면, 인간의 언어는 내부의 재귀적·계층적 사고 구조에 의해 최소한의 입력으로 성장한다. 또한 LLM은 가능한 언어와 불가능한 언어를 구별하지 못하며, 에너지 효율성, 발달 단계, 인지적 편향 등에서 인간 두뇌와 근본적인 차이를 보인다.
상세 분석
본 논문은 LLM과 인간 언어 체계 사이의 근본적 차이를 여러 차원에서 정밀히 검토한다. 첫째, 모델링 관점에서 LLM은 ‘문자열‑기반’ 확률 모델이며, 마코프 연쇄와 같은 전통적 통계적 접근을 대규모 파라미터와 데이터로 확장한 형태이다. 반면 인간 언어는 ‘구조‑기반’ 생성 메커니즘으로, 재귀적 구문 트리와 의미‑구조가 내부에서 형성된다. 이러한 차이는 의미론적 결정 과정에 직접 관여하는가 여부에서 명확히 드러난다. 둘째, 학습 메커니즘을 비교한다. 인간 영아는 ‘자극의 빈곤(Poverty of the Stimulus)’ 상황에서도 보편문법(Universal Grammar)이라는 선천적 제약을 활용해 언어 규칙을 추론한다. LLM은 수천억 토큰과 수조 파라미터를 필요로 하며, 입력 데이터의 양과 다양성에 전적으로 의존한다. 셋째, 에너지 효율성 측면에서 LLM은 수십 메가와트 수준의 전력을 소모하는 반면, 인간 두뇌는 약 20와트만으로 언어 처리와 전반적 인지 기능을 수행한다. 이는 실용적·환경적 관점에서도 LLM이 인간 언어 모델링에 적합하지 않음을 시사한다. 넷째, 발달적 차이를 강조한다. 아동은 단계별로 비선형적인 언어 구조를 습득하고, 때로는 입력에 존재하지 않는 구조를 생성한다. LLM은 훈련 단계에서 선형적인 통계 패턴을 학습할 뿐, ‘불가능한 언어’를 구분하거나 계층적 구문을 내재화하지 못한다는 실험적 증거가 제시된다(예: Musso et al., 2003; Tettamanti et al., 2002). 다섯째, 인지적 편향과 ‘가능/불가능 언어 구별’ 능력을 논한다. 인간은 브로카 영역을 포함한 전두-측두 네트워크를 통해 불가능한 언어에 대해 억제적 반응을 보이지만, LLM은 무작위 섞인 문장이나 역전된 텍스트에서도 인간과 유사한 성능을 보이며 구조적 차이를 인식하지 못한다(Kallini et al., 2024; Luo et al., 2024). 마지막으로, 저자는 LLM이 인간 언어 연구에 기여할 수 없다는 결론을 내리며, “오리처럼 꽥꽥거릴 수는 있어도 진정한 오리는 아니다”는 비유로 요약한다. 전체적으로 논문은 LLM이 인간 언어의 본질적 특성을 포착하지 못한다는 점을 다각도에서 입증하고, 향후 언어학 연구에서 LLM을 도구로 활용하는 데는 신중함이 필요함을 강조한다.
댓글 및 학술 토론
Loading comments...
의견 남기기