초대규모 분자동역학으로 본 다중기포 핵 형성
초록
본 연구는 짧은 거리 상호작용을 갖는 Lennard‑Jones 포텐셜을 이용한 분자동역학 코드를 개발하고, 전역 도메인 분할 기반의 flat‑MPI와 MPI/OpenMP 하이브리드 병렬화를 적용하였다. PRIMEHPC FX10에서 384억 입자 규모의 시뮬레이션을 수행해 193 TFLOPS(효율 17 %)를 달성했으며, 기포 형성·성장 과정에서 Ostwald‑like ripening 현상을 관찰하였다.
상세 분석
이 논문은 초대규모 분자동역학(MD) 시뮬레이션을 구현하기 위한 소프트웨어 설계와 실험적 성능 평가를 동시에 다룬다. 핵심 물리 모델은 짧은 거리 상호작용을 갖는 Lennard‑Jones(LJ) 포텐셜이며, 이는 원자 간의 반발과 인력을 간단히 표현하면서도 기포 형성 같은 복잡한 상전이 현상을 재현하는 데 충분하다. 저자들은 전역 도메인 분할(domain decomposition) 방식을 채택해 입자 집합을 3차원 격자 블록으로 나누고, 각 블록을 하나의 MPI 프로세스에 할당하였다. 이때 인접 블록 간 경계 입자 교환을 최소화하기 위해 셀 리스트(cell‑list)와 Verlet 리스트를 결합한 이중 리스트 구조를 도입했으며, 이는 통신 부하를 크게 낮추는 효과를 가져왔다.
병렬화 전략은 두 가지로 구분된다. 첫 번째는 전통적인 flat‑MPI 방식으로, 각 프로세스가 독립적인 연산과 통신을 수행한다. 두 번째는 MPI와 OpenMP를 혼합한 하이브리드 모델로, 하나의 MPI 프로세스가 여러 OpenMP 스레드에 의해 다중 코어를 공유하도록 설계하였다. 하이브리드 모델은 메모리 사용량을 절감하고, NUMA 구조에서 캐시 일관성을 향상시켜 대규모 코어 수에서의 스케일링 효율을 높인다. 특히, FX10 시스템의 4800개 노드(각 8코어)에서 하이브리드 구현이 flat‑MPI 대비 약 12 %의 추가 성능 향상을 보였다.
성능 측정에서는 입자 수를 1억에서 384억까지 단계적으로 증가시켜 weak scaling과 strong scaling을 모두 검증하였다. 384억 입자(≈38.4 × 10⁹) 시뮬레이션에서는 193 TFLOPS의 실측 연산량을 기록했으며, 이는 시스템 이론적 피크(≈1.14 PFLOPS)의 17 %에 해당한다. 효율이 20 % 이하로 떨어지는 구간은 주로 통신 대기시간과 로드 밸런싱 불균형에서 기인했으며, 특히 입자 밀도가 비균일하게 분포되는 기포 성장 단계에서 경계 교환량이 급증한다는 점을 지적한다. 메모리 측면에서는 각 입자당 48 바이트(위치·속도·힘·리스트 정보)를 할당해 전체 메모리 요구량이 약 1.8 TB에 달했으며, 이는 FX10의 2 TB 메모리 한계에 근접한다는 점에서 메모리 효율 최적화가 향후 과제로 남는다.
과학적 결과 부분에서는 PRIMEHPC FX10과 SGI ICE 8400EX 두 시스템에서 각각 14.5억·2290만 입자를 이용해 급속 cavitation 과정을 재현했다. 초기 고압 상태에서 급격히 압력이 감소하면서 수백 개의 기포가 동시 발생하고, 이후 기포 간 물질 교환을 통해 큰 기포가 성장하고 작은 기포는 소멸하는 Ostwald‑like ripening 현상이 관찰되었다. 이는 전통적인 연속체 모델에서는 파라미터 조정이 필요했지만, 원자 수준의 MD만으로도 자연스럽게 재현될 수 있음을 보여준다.
결론적으로, 이 연구는 페타플롭스 규모의 슈퍼컴퓨터에서도 직접적인 원자‑스케일 MD가 가능함을 증명하고, 복잡한 상전이 현상을 물리적으로 정확하게 탐구할 수 있는 새로운 길을 제시한다. 향후에는 장거리 전하 상호작용을 포함한 포텐셜, 다중 물질계, 그리고 GPU 가속 하이브리드 모델을 도입해 효율성을 더욱 끌어올릴 여지가 있다.