다중클래스·다중태스크 전략으로 신경망 기반 방향성 링크 예측 성능 향상
초록
본 논문은 방향성 링크 예측(DLP)의 세 가지 하위 과제(General, Directional, Bidirectional)를 동시에 학습하도록 설계된 세 가지 전략(MC‑NDLP, MO‑DLP, S‑DLP)을 제안한다. 다중클래스 분류와 다중태스크 최적화를 결합해 기존 방법보다 전반적인 성능을 크게 개선함을 실험적으로 입증한다.
상세 분석
본 연구는 기존 신경망 기반 무방향 링크 예측(NULP) 방식을 그대로 적용한 경우, 방향성 및 양방향성을 학습하지 못하는 근본적인 한계를 지적한다. 특히, 무작위로 샘플링된 음성(negative) 간선이 역방향 양성 간선을 거의 포함하지 않기 때문에 모델이 방향 정보를 무시해도 손실이 크게 증가하지 않는다. 이러한 데이터 불균형은 학습 단계에서 클래스별 가중치를 재조정하더라도 완전히 해소되지 않는다. 논문은 이를 해결하기 위해 세 가지 전략을 제시한다. 첫 번째인 MC‑NDLP는 네 가지 클래스를 정의(양방향 양성, 양방향 음성, 단방향 양성, 단방향 음성)하고, 각 클래스별 가중치를 역비례하게 적용한 다중클래스 교차 엔트로피 손실을 사용한다. 이때 로그잇은 두 노드 임베딩을 연결한 뒤 MLP로 변환해 4개의 로짓을 출력한다. 두 번째 전략인 MO‑DLP은 다중목표 최적화(MGD‑A) 기법을 적용해 General, Directional, Bidirectional 손실을 동시에 감소시키는 파레토 최적해를 탐색한다. 세 번째인 S‑DLP는 각 손실에 검증 손실 기반 가중치를 부여해 단순 가중합 형태의 스칼라화 손실을 만든다. 세 전략 모두 동일한 그래프 오토인코더 기반 GNN(예: GCN, GraphSAGE 등)에 적용 가능하도록 설계되었으며, 학습 데이터는 세 과제의 양성·음성 간선을 모두 포함하도록 동시에 샘플링한다. 실험에서는 Cora, Citeseer, Pubmed 등 지식 그래프와 실제 거래 네트워크 데이터를 사용했으며, MC‑NDLP가 특히 클래스 불균형을 효과적으로 완화해 전체 정확도와 방향성/양방향성 별 F1 점수를 모두 향상시켰다. MO‑DLP는 파레토 전선 상에서 균형 잡힌 성능을 제공했으며, S‑DLP는 구현이 간단하면서도 기존 베이스라인 대비 평균 5~7%의 개선을 기록했다. 전체적으로, 방향성 정보를 명시적으로 모델링하고, 다중태스크 손실을 적절히 조합하는 것이 DLP 성능 향상의 핵심 요인임을 입증한다.
댓글 및 학술 토론
Loading comments...
의견 남기기