그래프 지배수 예측에 최적화된 그래프 신경망(GNN)의 뛰어난 성능

읽는 시간: 6 분
...

📝 Abstract

We investigate machine learning approaches to approximating the \emph{domination number} of graphs, the minimum size of a dominating set. Exact computation of this parameter is NP-hard, restricting classical methods to small instances. We compare two neural paradigms: Convolutional Neural Networks (CNNs), which operate on adjacency matrix representations, and Graph Neural Networks (GNNs), which learn directly from graph structure through message passing. Across 2,000 random graphs with up to 64 vertices, GNNs achieve markedly higher accuracy ( $R^2=0.987 $, MAE $=0.372 $) than CNNs ( $R^2=0.955 $, MAE $=0.500 $). Both models offer substantial speedups over exact solvers, with GNNs delivering more than $200\times$ acceleration while retaining near-perfect fidelity. Our results position GNNs as a practical surrogate for combinatorial graph invariants, with implications for scalable graph optimization and mathematical discovery.

💡 Analysis

**

1. 연구 배경 및 필요성

  • **지배수(γ(G))**는 네트워크 자원 배치, 커버리지, 보안 등 실용적인 문제에 직접 연결되는 핵심 그래프 불변량이다.
  • 정확한 계산은 NP‑complete이며, 근사 알고리즘조차도 hardness‑of‑approximation 결과에 의해 제한된다.
  • 전통적인 휴리스틱·정밀 알고리즘은 정점 수가 수십 정도인 작은 그래프에만 적용 가능하므로, 대규모 네트워크에 대한 스케일러블 대안이 절실하다.

2. 방법론

2.1 데이터 셋 구성

  • Erdős‑Rényi (ER) 그래프: n ∈

📄 Content

그래프는 통신 및 교통 네트워크부터 분자 구조와 생물학적 상호작용에 이르기까지 복잡계 모델링을 위한 통합 수학적 프레임워크를 제공합니다. 그래프 이론에서 연구되는 많은 불변량 중, 지배수 γ(G) 는 자원 할당, 커버리지 및 네트워크 보안 문제에서 중심적인 역할을 합니다. 지배 집합은 정점 집합 D 가 그래프 G 의 모든 정점 v ∉ D 에 대해 v 와 인접한 정점이 D 에 존재하도록 하는 부분집합을 말하며, 지배수는 이러한 집합의 최소 크기를 의미합니다. 1970년대에 이루어진 기초 연구는 지배 이론의 토대를 마련했으며, Cockayne와 Hedetniemi [1977], Allan과 Laskar [1978]의 논문이 그 시작을 알렸고, Haynes 등 [1998]은 구조적 그래프 이론에서의 중요성을 종합적으로 정리했습니다. 그러나 γ(G) 를 계산하는 문제는 NP‑complete [Garey와 Johnson 1979]이며, 근사 보장조차도 Feige [1998]의 근사‑난이도 결과에 의해 제한됩니다. 고전적인 휴리스틱 Parekh [1991]과 정교한 정확 알고리즘 Fomin 등 [2009]은 작은 인스턴스에만 적용 가능해, 확장 가능한 대안이 절실히 필요합니다.

새롭게 떠오르는 접근법은 알고리즘적 계산을 예측으로 대체하는 것입니다. 각 인스턴스마다 지배수를 처음부터 풀어내는 대신, 그래프 구조를 직접 γ(G) 에 매핑하도록 머신러닝 모델을 학습시킬 수 있습니다. “학습을 통한 최적화”(learning to optimize)라는 아이디어는 Khalil 등 [2017]이 제시한 이후 조합 최적화 전반에 걸쳐 주목받고 있으며, 최근 연구에서는 신경망 모델이 안정수와 같은 그래프 불변량을 근사할 수 있음을 보여주었습니다 [Davila 2024]. GraphCalc [Davila 2025]와 같은 도메인‑특화 도구는 이러한 대리 모델을 체계적으로 실험할 수 있게 해, 고전적인 솔버만으로는 불가능한 대규모 연구를 가능하게 합니다.

구조적 차원에서 가장 자연스러운 후보는 그래프 신경망(GNN)입니다. 그래프 기반 순환 네트워크의 초기 형태 Scarselli 등 [2009]에서 시작해, 게이트 업데이트 Li 등 [2016], 그래프 컨볼루션 Kipf와 Welling [2017], 귀납적 방법 Hamilton 등 [2017], 일반 메시지 패싱 Gilmer 등 [2017]으로 급속히 발전했습니다. 특히 Graph Isomorphism Network (GIN) Xu 등 [2019]은 Weisfeiler‑Lehman 테스트 [Morris 등 2019]와 동등한 표현력을 갖추어, 구조적 그래프 특성을 학습하는 표준 선택이 되었습니다.

대조적인 패러다임으로, 합성곱 신경망(CNN)은 인접 행렬을 이미지처럼 취급해 그래프에 적용되었습니다. 이 접근법은 지역 연결성을 포착하기 위해 합성곱 필터를 활용 [Tixier 등 2018]하며, 특정 상황에서는 그래프 기반 모델을 능가하거나 동등한 성능을 보이기도 했습니다 [Boronina 등 2023]. 그러나 CNN은 그래프 고유의 순열 불변성을 무시하므로, 전역 구조에 의존하는 조합 불변량을 학습하는 데 적합한가에 대한 의문이 제기됩니다.

이러한 배경을 토대로, 우리는 지배수 예측을 위한 CNN과 GNN의 비교 연구를 제시합니다. CNN을 비전‑영감 기반 베이스라인으로, GNN을 그래프‑네이티브 모델로 설정하여, 아키텍처의 귀납적 편향이 예측 정확도, 실행 시간 효율성, 그리고 그래프 크기에 따른 견고성에 어떻게 영향을 미치는지를 정량화합니다. 우리 지식에 따르면, 이와 같은 비교 프레임워크 내에서 지배수 예측을 체계적으로 다룬 연구는 처음이며, 결과는 GNN이 어려운 그래프 불변량에 대한 확장 가능한 대리 모델로서 큰 잠재력을 가지고 있음을 강조합니다.

지배수 연구의 역사적 배경

지배수에 관한 연구는 오랜 역사를 가지고 있습니다. Cockayne와 Hedetniemi [1977], Allan과 Laskar [1978]의 기초 논문은 핵심 구조적 결과들을 제시했으며, Haynes 등 [1998]의 포괄적 서베이는 그래프 이론 및 응용 분야에서의 중심성을 강조합니다. 계산적 관점에서 보면, 정확 알고리즘은 NP‑complete [Garey와 Johnson 1979]와 근사 난이도 [Feige 1998] 때문에 제한적이며, 특수 휴리스틱 Parekh [1991]과 지수‑시간 알고리즘 [Fomin 등 2009]만이 개발되었습니다. 이러한 장벽은 전통적 방법을 넘어서는 대리 접근법의 필요성을 촉구합니다.

그래프 신경망의 부상

그래프‑구조화 데이터를 학습하기 위한 강력한 패러다임으로 GNN이 등장했습니다. 초기 그래프 기반 신경계산 Scarselli 등 [2009]과 Li 등 [2016]은 현대의 메시지 패싱 아키텍처 [Kipf와 Welling 2017, Hamilton 등 2017, Gilmer 등 2017]로 진화했으며, GIN은 거의 최적에 가까운 표현력을 제공합니다 [Xu 등 2019, Morris 등 2019]. GNN은 화학, 조합 최적화 등 다양한 분야에 성공적으로 적용되었으며 [Khalil 등 2017], 그래프 불변량 근사에서도 [Davila 2024]와 같은 성과를 보였습니다. GraphCalc [Davila 2025]와 같은 도구는 이러한 연구를 체계적으로 지원합니다.

CNN을 그래프에 적용한 사례

CNN은 원래 비전 분야를 위해 개발되었지만, 인접 행렬을 이미지로 취급해 그래프에 적용하는 연구가 진행되었습니다. 이 접근법은 [Tixier 등 2018]이 제시한 바와 같이 지역적 인접성을 포착하는 합성곱 필터를 활용하며, [Boronina 등 2023]은 그래프 분류에서 경쟁력 있는 베이스라인을 제공함을 보여줍니다. 그러나 CNN은 순열 불변성을 본질적으로 포기하므로, 그래프 동형 클래스에 의존하는 지배수와 같은 불변량을 학습하는 데 한계가 있습니다.

연구 목표 및 기여

본 연구는 GNN과 CNN을 직접 비교함으로써, 지배수라는 고전적이면서도 계산적으로 어려운 파라미터 예측에 대한 집중적인 평가를 수행합니다. 기존 연구들은 신경 대리 모델의 가능성을 보여주었지만, 지배수에 대한 체계적인 비교는 이루어지지 않았습니다. 우리는 이 격차를 메우고, 실험적 벤치마크와 아키텍처 편향이 어려운 그래프 불변량 학습에 미치는 영향을 제시합니다.

실험 설계

  • 목표: 그래프 G 가 주어졌을 때, 정확히 GraphCalc가 계산한 γ(G) 에 근접하도록 회귀 모델을 학습한다.
  • 데이터셋:
    1. Erdős‑Rényi (ER) 그래프 G(n, p) : n ∈ [5, 64] 범위에서 2,000개, p 는 [0, 1] 구간에서 균등 추출.
    2. Barabási‑Albert (BA) 그래프 G(n, m) : n ∈ [5, 64], m = 2 인 2,000개, 스케일‑프리 네트워크를 모델링.
  • 각 그래프는 정확한 지배수 라벨을 부여하고, 그래프 크기에 따라 층화하여 80 %를 학습, 20 %를 테스트에 사용한다.

CNN 베이스라인

  1. 인접 행렬을 이미지 형태로 변환하고, 대각선에 정점 차수를 추가.
  2. 값들을 [0, 255] 범위로 재스케일하고, 64 × 64 크기로 패딩/리사이즈.
  3. 네트워크 구조:
    • Conv2D(64, 3 × 3) → Flatten → Dense(64) → Dense(1)
  4. 이 구조는 지역적 합성곱 편향을 활용하지만, 순열 불변성을 무시한다.

GNN (GIN) 모델

  • 3‑계층 GIN 사용. 각 계층은 이웃 특징의 합계 집계 후, 작은 MLP(ReLU + BatchNorm)으로 업데이트한다.
  • ϵ(l) 은 학습 가능한 파라미터.
  • 3번의 메시지 패싱 후, mean + additive pooling(평균 및 합계 풀링)으로 그래프‑레벨 표현을 만든 뒤, 선형 레이어를 통해 γ(G) 예측.

학습 설정

  • 옵티마이저: Adam, 학습률 1e‑3, 손실: 평균 제곱 오차(MSE).
  • CNN은 약 25 epoch에 수렴, GNN은 최대 200 epoch, 검증 셋에 대한 조기 종료 적용.
  • 하이퍼파라미터(숨김 차원, 풀링 전략 등)는 그리드 서치를 통해 최적화.
  • 평가 지표: 평균 절대 오차(MAE), 루트 평균 제곱 오차(RMSE), 결정계수(R²).
  • 64‑정점 그래프에 대한 실행 시간도 측정해 정확한 솔버와의 속도 향상을 비교.
  • 모든 구현 및 실험 코드는 부록 Colab 노트북 1, 2에 공개.

실험 결과

모델R² (ER 테스트)MAERMSE속도 (64‑정점)
CNN0.9550.8421.2367.4 × 속도 향상
GNN0.9870.6180.6581.1 ms/인스턴스 (≈ 100× 속도 향상)
  • 정확도: GNN은 CNN보다 MAE를 26 %, RMSE를 47 % 감소시켰으며, R²는 0.032 포인트 상승했다. 이는 메시지 패싱이 인접 행렬 기반 합성곱보다 구조적 의존성을 더 잘 포착함을 의미한다.
  • 효율성: 정확한 솔버는 64‑정점 그래프당 수초에서 수십 초가 소요되는 반면, GNN은 1.1 ms 수준으로 실시간 응용에 적합하다. CNN도 속도 향상이 있지만, GNN에 비해 2 ~ 3 자리 정도 낮다.

풀링 전략 분석 (Table 3)

  • Mean pooling만 사용하면 MAE = 1.571 (성능 저조).
  • Mean + Additive pooling을 결합하면 MAE가 76 % 이상 감소, 즉 구조적 분포와 누적 정보를 동시에 활용하는 것이 중요함을 보여준다.

그래프 크기별 성능 (Table 4)

  • GNN은 모든 정점 구간(5‑64)에

이 글은 AI가 자동 번역 및 요약한 내용입니다.

검색 시작

검색어를 입력하세요

↑↓
ESC
⌘K 단축키