셀프‑어텐션 벡터 유사성으로 보는 기계의 주의 메커니즘
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.
초록
**
본 연구는 BERT‑12 모델의 셀프‑어텐션 헤드 출력 벡터 간 내적을 이용해 “컨텍스트 유사성 행렬”을 만든 뒤, 각 레이어와 헤드가 어떻게 서로 다른 언어적 특성을 학습하고 집중하는지를 정량적으로 분석한다. 초기 레이어는 장거리 토큰 간 유사성을, 후반 레이어는 문장 구분자와 같은 토큰에 집중하는 짧은 거리 유사성을 보여준다. 또한 각 헤드는 고유한 토큰을 중심으로 특화된 패턴을 형성한다는 점을 밝혀냈다.
**
상세 분석
**
이 논문은 기존 연구가 어텐션 맵(weight matrix) 자체에 머무른 데 반해, 어텐션 헤드 출력 벡터(value vector) 사이의 내적을 통해 실제 정보 흐름을 추적한다는 점에서 차별화된다. 12개의 레이어, 각 레이어당 12개의 헤드에서 128‑dimensional 토큰 벡터를 추출하고, 이들 간의 스칼라 곱을 행렬화한 “컨텍스트 유사성 행렬”을 만든 뒤, 행렬의 대각선·비대각선 패턴, 거리 분포, 토큰 빈도 등을 정량화하였다.
- 레이어별 거리 특성
- 초기 레이어(1~3)에서는 높은 유사성을 보이는 토큰 쌍이 전체 시퀀스에 걸쳐 고르게 분포한다. 이는 모델이 기본적인 형태소·문맥 정보를 전역적으로 파악하고 있음을 의미한다.
- 중간 레이어(4~8)에서는 유사성 행렬이 대각선에 집중되며, 토큰 간 거리(인덱스 차)가 50 이하인 경우가 대부분이다. 이는 모델이 문장 내부의 로컬 관계를 강화하고 있음을 보여준다.
- 최종 레이어(9~12)에서는 다시 범위가 확대되어, 문장 구분자(
댓글 및 학술 토론
Loading comments...
의견 남기기