협업형 저랭크 적응: 작업 유사성을 활용한 효율적 파인튜닝
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.
초록
CoLoRA는 공통 어댑터와 개인화 어댑터를 결합해 유사한 다운스트림 작업들을 공동으로 파인튜닝함으로써 파라미터 효율성을 크게 높이고, 데이터가 부족한 상황에서도 각 사용자에게 맞춤형 성능 향상을 제공한다.
상세 분석
본 논문은 대규모 파운데이션 모델을 파인튜닝할 때 발생하는 데이터 희소성 문제를 해결하기 위해 ‘작업 유사성(task similarity)’이라는 새로운 관점을 도입한다. 기존 LoRA는 각 작업마다 별도의 저랭크 어댑터 (B_iA_i) 를 학습하지만, 작업 간에 내재된 공통 구조가 존재한다면 이를 공유함으로써 파라미터 수를 크게 줄일 수 있다. 저자들은 먼저 ‘컬럼 서브스페이스 유사도’를 정의하여 두 작업의 어댑터 (B_iA_i) 와 (B_jA_j) 가 차지하는 열 공간의 겹침 정도를 정량화한다. 실험적으로 6개의 간단한 리스트 처리 작업에 대해 LoRA를 개별 학습시킨 뒤 서브스페이스 유사도를 측정했으며, 직관적으로 유사한 작업 쌍이 높은 유사도를 보임을 확인한다.
이러한 관찰을 바탕으로 제안된 CoLoRA는 하나의 전역 어댑터 (A, B) 와 각 작업별 개인화 매트릭스 (\Lambda_i) 를 도입한다. 최적화 목표는
\
댓글 및 학술 토론
Loading comments...
의견 남기기