텍스트‑프리 교차도메인 이종 그래프 학습을 위한 기반 모델 CrossHGL
CrossHGL은 텍스트 정보를 사용하지 않고, 이종 그래프의 다중관계 구조를 보존하면서 서로 다른 도메인 간에 지식을 전이하는 기반 모델이다. 이 모델은 (1) SVD 기반 특성 정렬과 메타패턴 마이닝을 통한 의미 보존 그래프 변환, (2) 특징·엣지·구조 프롬프트를 결합한 Tri‑Prompt 메커니즘을 이용한 자기지도 대조 학습, (3) 사전학습된 백본을 고정하고 프롬프트와 프로토타입 네트워크만 조정하는 파라미터 효율적 파인튜닝으로 구성된다…
저자: Xuanze Chen, Jiajun Zhou, Yadong Li
본 논문은 텍스트 기반 외부 지식에 의존하지 않는 이종 그래프의 교차‑도메인 학습을 목표로 하는 새로운 프레임워크 CrossHGL을 제안한다. 기존 이종 그래프 신경망(HGNN)은 동일 스키마와 특성 공간을 전제로 하는 폐쇄형 설정에 머물러, 새로운 도메인에 적용하기 어려웠으며, 최근 등장한 그래프 기반 파운데이션 모델도 주로 동질 그래프에 초점을 맞추거나, 도메인‑특정 스키마·텍스트 정렬에 의존하는 한계가 있었다. 이러한 문제점을 극복하기 위해 저자들은 세 단계로 구성된 파이프라인을 설계하였다.
1. **의미 보존 그래프 변환 (Semantic‑Preserving Graph Transformation)**
- 각 도메인의 이종 그래프 G=(V,E,A,R,ϕ,φ,X_V,X_E)를 입력으로 받아, 먼저 SVD를 이용해 노드 특성 차원을 통일한다. 이는 서로 다른 타입의 노드가 갖는 차원 불일치를 최소화한다.
- 이후 자동 메타패턴 마이닝을 수행해 자주 등장하는 메타패스(예: 사용자‑아이템‑카테고리)를 추출하고, 이를 기반으로 관계 정보를 압축한다. 추출된 메타패스는 새로운 엣지 피처에 인코딩되어, 변환된 동질 그래프 G'=(V',E',A',X_V',X_E')의 엣지에 다중관계 의미가 보존된다.
- 변환 과정에서 원본 이종 그래프의 구조적 시그널을 손실 없이 유지하면서도, 모든 노드·엣지를 동일한 차원 공간에 매핑한다.
2. **다중‑도메인 의미 그래프 사전학습 (Multi‑Domain Semantic Graph Pre‑training)**
- 변환된 동질 그래프들을 하나의 공유 GNN 백본 f_θ에 입력한다. 여기서 백본은 메시지 패싱 기반이며, 엣지 피처 X_E'를 직접 집계에 활용해 관계 정보를 전달한다.
- Tri‑Prompt 메커니즘을 도입한다.
* **Feature Prompt**: 정규화된 노드 피처에 추가적인 학습 가능한 토큰을 결합해, 도메인‑공통 특성 표현을 강화한다.
* **Edge Prompt**: 변환 단계에서 만든 관계‑엣지 피처에 별도의 프롬프트를 부여해, 관계별 차이를 명시적으로 모델링한다.
* **Structure Prompt**: 그래프 전체 토폴로지를 요약하는 구조 토큰을 삽입해, 전역적인 연결 패턴을 학습한다.
- 세 프롬프트는 각각 독립적인 파라미터를 갖지만, 동일 백본을 공유함으로써 “특징‑관계‑구조” 각각의 전이 가능성을 분리한다.
- 사전학습 목표는 Deep Graph Infomax(DGI) 기반의 자기지도 대조 학습이다. 각 그래프에 대해 로컬‑글로벌 임베딩을 생성하고, 긍정/부정 샘플을 구성해 정보량을 최대화한다. 이를 통해 다양한 도메인에서 공통된 고차원 표현을 학습한다.
3. **교차‑도메인 파인튜닝 (Cross‑Domain Fine‑tuning)**
- 목표 도메인 G_T에 대해 사전학습된 백본 f_θ를 고정한다. 파라미터 업데이트는 프롬프트와 프로토타입 네트워크에만 국한된다.
- **Attention‑Based Prompt Composition**: 입력된 소수의 라벨 샘플(K‑shot)으로부터 각 클래스별 프롬프트 가중치를 학습하고, 이를 기존 Feature/Edge/Structure 프롬프트와 결합한다.
- **Prototypical Learning**: 각 클래스의 임베딩 평균을 프로토타입으로 사용해, 새로운 인스턴스(노드 혹은 서브그래프)의 임베딩과 거리 기반으로 라벨을 예측한다. 비선형 분류기를 별도로 학습할 필요가 없어 파라미터 효율성이 높다.
- 이 과정은 몇 개의 라벨만으로도 빠르게 적응할 수 있어, 극소수 샷(few‑shot) 상황에서도 높은 정확도를 보인다.
**실험 및 결과**
- 8개의 공개 이종 그래프 데이터셋(예: DBLP, ACM, IMDB, Yelp, 금융 거래 그래프 등)에서 노드 분류와 그래프 분류 두 가지 다운스트림 태스크를 수행하였다.
- 교차‑도메인 설정에서 CrossHGL은 평균 Micro‑F1 점수에서 기존 최첨단 방법(HePa, HetGPT, GCOPE 등)보다 각각 25.1%와 7.6% 향상되었다.
- 특히 “feature‑degenerated” 환경(노드 특성 차원 크게 차이나는 경우)에서도 변환 단계가 관계 정보를 엣지에 충분히 보존함을 입증하였다.
- 파라미터 효율성 측면에서, 전체 모델 파라미터는 사전학습 단계 제외하고 약 2~3% 수준만 업데이트되었으며, 파인튜닝 시간도 기존 방법 대비 30% 이상 단축되었다.
**의의와 한계**
CrossHGL은 텍스트 없이도 이종 그래프의 구조적·관계적 의미를 효과적으로 전이할 수 있음을 보여준다. 이는 금융·보안·생물학 등 텍스트가 제한된 분야에 바로 적용 가능하게 만든다. 다만, 현재는 SVD 기반 정렬과 메타패턴 마이닝이 사전 처리 단계에서 계산 비용이 다소 높으며, 매우 대규모 그래프(수억 노드)에서는 스케일링이 필요하다. 또한, 프롬프트 설계가 고정된 3가지 유형에 제한돼 있어, 더 복잡한 하이퍼관계(예: 하이퍼엣지)에는 추가 확장이 요구된다.
**결론**
본 논문은 (1) 이질성 완화, (2) 다중관계 보존, (3) 프롬프트 기반 전이 학습, (4) 파라미터 효율적 파인튜닝이라는 네 가지 핵심 설계를 통해 텍스트‑프리 교차‑도메인 이종 그래프 학습이라는 미해결 문제를 체계적으로 해결한다. 향후 연구에서는 변환 단계의 경량화, 프롬프트 다양화, 그리고 초대규모 그래프에 대한 분산 학습 적용을 통해 실용성을 더욱 확대할 수 있을 것으로 기대된다.
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기