법률 도메인 지식 주입을 통한 인도 법원 판결 요약 성능 혁신

법률 도메인 지식 주입을 통한 인도 법원 판결 요약 성능 혁신
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 연구는 인도 법원 판결을 영어와 힌디어로 요약하기 위해 법률 전용 사전학습 인코더와 지속적 사전학습을 적용한 추출·생성 모델을 제안한다. 인LegalBERT 기반 인코더와 대규모 법률 코퍼스(영문·힌디어)를 활용한 도메인 지식 주입으로 기존 최첨단 모델 대비 ROUGE‑2 20‑23%, ROUGE‑L 15‑19%의 향상을 달성했으며, 사실 일관성 및 법률 전문가 평가에서도 우수성을 확인하였다. 또한 메모리 효율적인 GaLore 기법을 적용해 자원 절감 효과도 입증했다.

상세 분석

이 논문은 인도 법률 문서 요약이라는 특수한 도메인 문제에 두 가지 차원의 지식 주입 전략을 적용한다. 첫 번째는 추출 기반 인코더‑전용 모델에 법률 전용 사전학습 인코더(InLegalBERT)를 결합하는 방식이다. 기존 SummaRuNNer 구조에 도메인 특화 인코더를 삽입함으로써 문서‑요약 매핑 단계에서 법률 용어와 구조적 패턴을 더 정확히 포착한다. 두 번째는 생성 모델(Encoder‑Decoder 및 Decoder‑only) 전반에 걸쳐 지속적 사전학습(continual pre‑training)으로 법률 코퍼스(영문 27K68K, 힌디어 17K34K)를 활용한다. 여기서 저자는 메모리‑효율적인 GaLore(저‑랭크 어댑터)와 전통적인 전체 파라미터 업데이트 두 가지 전략을 비교해, 자원 제한 상황에서도 거의 동일한 성능을 유지함을 보였다.

데이터 측면에서는 기존에 제시된 MILDSum 데이터셋(3,122건)만을 사용해 영어‑영어와 영어‑힌디어 두 축의 요약을 평가한다. 이 데이터는 요약문이 원문에서 직접 인용되는 경우가 많아 높은 추출적 프래그먼트 커버리지(0.90)와 밀도(24.42)를 보이며, 도메인 특화 평가 지표가 필요함을 시사한다. 논문은 ROUGE‑2, ROUGE‑L 외에도 InLegal‑BERTScore(영문)와 다국어 BERTScore(힌디어)를 도입해 의미적 유사성을 측정하고, SummaC(NLI 기반)로 사실 일관성을 검증한다.

실험 결과는 두 모델군 모두 기존 SOTA인 SummaRuNNer(EN‑EN)와 CrossSum‑mT5(EN‑HI)를 크게 앞선다. 특히 ROUGE‑2 F1이 20‑23% 상승하고, ROUGE‑L이 15‑19% 개선되었으며, SummaC 점수에서도 유의미한 향상이 관찰된다. 법률 전문가가 수행한 정성 평가에서도 요약의 정확성·완전성이 높게 평가되었고, GPT‑4와 비교했을 때 도메인·다언어 전이 능력에서 열위임을 확인한다.

이 연구의 주요 기여는 (1) 도메인 특화 인코더를 통한 추출 모델 강화, (2) 지속적 사전학습으로 생성 모델에 법률 지식 주입, (3) 자원 효율적인 학습 기법(GaLore) 검증, (4) 다언어 전이 효과 분석, (5) 법률 분야 전용 평가 지표와 인간 평가를 통한 종합 검증이다. 결과는 법률 문서 요약뿐 아니라 다른 전문 분야·다언어 요약에도 적용 가능함을 시사한다.


댓글 및 학술 토론

Loading comments...

의견 남기기