하이퍼관계 지식그래프를 위한 완전 유도 링크 예측 모델 THOR
초록
THOR는 관계와 엔티티 기반의 두 개의 “기초 그래프”를 구축하고, 이를 NBFNet 기반 인코더와 트랜스포머 디코더로 학습시켜 하이퍼관계 지식그래프에서 완전 유도(link‑prediction) 성능을 크게 향상시킨다. 기존 전이학습 방식이 한정된 어휘에만 적용되는 반면, THOR는 전혀 새로운 엔티티·관계에도 일반화 가능하다.
상세 분석
본 논문은 하이퍼관계 지식그래프(HKG)에서 기존 전이(transductive) 방식이 갖는 어휘 의존성을 극복하고, 완전 유도(inductive) 링크 예측을 가능하게 하는 새로운 프레임워크 THOR를 제안한다. 핵심 아이디어는 “관계 기초 그래프”(relation foundation graph)와 “엔티티 기초 그래프”(entity foundation graph)를 별도로 정의함으로써, 사실(fact) 내·외부의 위치‑기반 상호작용을 그래프 구조로 추상화한다는 점이다.
관계 기초 그래프는 기본적인 6가지 상호작용(헤드‑헤드, 헤드‑테일, 테일‑헤드, 테일‑테일, 관계‑키, 키‑관계)을 포함한다. 이는 특정 관계나 엔티티에 의존하지 않으며, 사실들 사이의 구조적 패턴을 포착한다. 엔티티 기초 그래프는 기본적인 헤드‑테일, 헤드‑값, 값‑헤드, 테일‑값, 값‑테일, 값‑값 상호작용을 모델링한다. 두 그래프 모두 “포지션‑와이즈(position‑wise) 인터랙션”을 기반으로 하여, 새로운 관계·엔티티가 등장해도 동일한 구조적 규칙을 적용할 수 있다.
그래프 인코더는 최신 경로 기반 GNN인 Neural Bellman‑Ford Network(NBFNet)를 채택한다. NBFNet은 쿼리 노드에 라벨링 트릭을 적용해 조건부 메시지 패싱을 수행함으로써, 전통적인 GNN이 갖는 자동동형성(automorphism) 한계를 넘어선다. THOR는 관계 기초 그래프와 엔티티 기초 그래프 각각에 독립적인 NBFNet 인코더를 병렬로 두어, 관계와 엔티티의 구조적 표현을 동시에 학습한다.
인코더 출력은 트랜스포머 디코더에 입력된다. 디코더는 엣지‑바이어스(self‑attention) 메커니즘을 사용해 각 요소(관계·엔티티) 간의 위치 정보를 명시적으로 반영한다. 마스크 토큰(
댓글 및 학술 토론
Loading comments...
의견 남기기