언어 모델 훈련을 교실 실험실로 바꾸다
초록
본 연구는 브라우저 기반 도구인 Little Language Machine을 활용해 대학 CS1 수강생 162명을 대상으로 작은 트랜스포머 언어 모델을 직접 훈련하도록 하였다. 사전·사후 테스트에서 학생들의 설명이 ‘인공지능이 인간처럼 생각한다’는 인격화·오해에서 데이터·모델 구조 기반의 합리적 설명으로 크게 전환됨을 확인했다. 짧은 실습만으로도 학습자들의 AI 리터러시가 향상될 수 있음을 시사한다.
상세 분석
이 논문은 AI 교육 현장에서 ‘프롬프트 중심’ 접근이 학습자의 모델 이해를 제한한다는 비판적 시각을 바탕으로, 모델 훈련 과정을 직접 체험하게 하는 새로운 교육 패러다임을 제시한다. 핵심 기술은 nanoGPT를 변형한 4백만 파라미터 규모의 트랜스포머를 웹GPU/WebGL 기반으로 브라우저 내에서 실행하도록 최적화한 Little Language Machine이다. 메모리 사용량을 0.24 GB 이하로 제한하고, 혼합 정밀도와 키‑밸류 캐싱을 도입해 저사양 노트북에서도 실시간 학습과 추론이 가능하도록 설계했다. 데이터 프라이버시 측면에서도 모든 연산이 클라이언트 측에서 이루어져 GDPR을 준수한다는 점이 교육용 도구로서 큰 장점이다.
교육 설계는 사전 테스트(오픈형 질문 2개) → 도구 활용 과제(데이터 선택, 모델 구성, 훈련, 관찰, 텍스트 생성) → 사후 테스트(동일 질문) 순으로 진행되었으며, 학습 전후의 서술형 답변을 질적 내용 분석으로 코딩하였다. 코딩 체계는 ‘훈련 데이터’, ‘모델 결함’, ‘프롬프트 오류’, ‘웹 검색 오류’, ‘번역 오류’, ‘지능 부재’, ‘환각’ 등 7~8개의 범주로 구성되었다.
통계적으로는 ‘훈련 데이터’에 대한 언급 비율이 13 %에서 38 %로 상승했으며, z‑검정(z = 5.09, p < 0.001)으로 유의미한 변화를 보였다. 반면 ‘웹 검색’이나 ‘번역 오류’와 같은 오해는 현저히 감소했다. 이는 학생들이 모델을 ‘데이터‑통계 기반 시스템’으로 재구성했음을 의미한다. 여전히 ‘프롬프트’와 ‘환각’에 대한 언급이 남아 있었지만, 이는 기존 오해보다 더 기술적·학문적 맥락에서 설명되는 경향을 보였다.
이러한 결과는 짧은 실습이라도 ‘모델을 직접 만들고 관찰하는 경험’이 학습자의 인공지능 개념 전이를 촉진한다는 강력한 증거를 제공한다. 특히, 초·중등 AI 리터러시 교육에서 ‘블랙박스’를 열어 ‘샌드박스’로 전환하는 전략이 효과적일 수 있음을 시사한다. 또한, 클라이언트‑사이드 실행이라는 설계는 비용·인프라 제약이 큰 교육 현장에서 확장성을 확보하는 실용적 방안으로 평가된다. 향후 연구에서는 장기 학습 효과, 다양한 학습 수준(예: 고등학교) 적용, 그리고 모델 복잡도·데이터 다양성 변수가 학습자 이해에 미치는 영향을 탐색할 필요가 있다.
댓글 및 학술 토론
Loading comments...
의견 남기기