EAST 실시간 비디오 온디맨드 시스템 MDSplus 기반

EAST 실시간 비디오 온디맨드 시스템 MDSplus 기반
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 EAST 토카막 실험에서 촬영된 고속 영상 데이터를 MDSplus 데이터베이스에 직접 저장·관리하고, 웹 기반 및 jScope 인터페이스를 통해 실시간으로 조회·분석할 수 있는 VOD(Video On Demand) 시스템을 설계·구현한 내용을 다룬다. 기존 RAID·XML 방식 대비 프레임 저장·검색 속도가 3배 이상 향상되었으며, 실험 데이터와 영상이 동일한 구조로 보관돼 백업·공유가 용이해졌다.

상세 분석

본 시스템은 기존 EAST VOD가 영상 파일을 RAID에 보관하고 타임스탬프를 XML로 관리하던 구조에서 근본적인 전환을 시도한다. 핵심은 MDSplus의 계층형 데이터 모델을 활용해 영상 프레임 자체를 ‘신호’와 동일한 형태로 저장함으로써, 실험 데이터와 영상이 동일한 API(jScope, MDSplus 클라이언트)로 접근 가능하도록 만든 점이다. 시스템 아키텍처는 중앙제어시스템(CCS) → 카메라 트리거 → Acquisition Server(프레임 추출·타임스탬프 파일 생성) → Storage Server(프레임·타임스탬프를 디스크 매핑으로 읽어 MDSplus에 저장·동시에 FFmpeg로 FLV 영상 합성) → VOD Server(웹·PHP·JavaScript 기반) 순으로 구성된다.

데이터 흐름에서 TCP 소켓을 이용해 Shot 번호를 전달하고, 두 개의 워커 스레드가 큐 기반으로 작업을 분산한다는 점은 실시간성을 확보하는 핵심 설계이다. 특히 디스크 매핑을 이용해 대용량 프레임 파일을 메모리 복사 없이 직접 MDSplus에 삽입함으로써 I/O 오버헤드를 최소화한다. 저장 단계에서 FFmpeg를 활용해 FLV 형식으로 재생 가능한 영상으로 변환하는 과정은 웹 전송에 최적화된 포맷을 제공한다.

표시 단계는 B/S 구조를 채택해 PHP와 JavaScript가 MDSplus에 질의해 프레임 메타데이터와 이미지 데이터를 받아오고, 사용자는 웹 UI에서 샷 번호 검색, 프레임 속도 조절, 전·후 프레임 이동 등을 수행한다. jScope 연동을 통해 과학자들은 영상 프레임과 동시에 플라즈마 파형 데이터를 동기화해 시각화할 수 있다. 이는 실험 현상의 시각적 해석과 정량적 데이터 분석을 한 화면에서 수행하게 함으로써 연구 효율을 크게 높인다.

성능 비교표에 따르면, 동일 샷에 대해 기존 시스템이 30 s 이상 걸리던 작업을 새 시스템은 10 s 내외로 단축했으며, 장시간 펄스(예: 73999번 샷)에서도 3배 가량 빠른 처리 속도를 보였다. 이는 MDSplus의 고성능 트리 구조와 멀티스레드 저장 로직, 그리고 디스크 매핑 기반 I/O 최적화가 결합된 결과라 할 수 있다.

한계점으로는 현재 영상 합성 단계가 FFmpeg에 의존해 CPU 집약적이며, 실시간 스트리밍보다는 사후 합성·재생 형태에 머물고 있다는 점이다. 또한, 다중 카메라 동시 재생·동기화 기능이 미구현돼 있어 복합 현상 분석에 제약이 있다. 향후 계획에서는 GPU 기반 인코딩, WebRTC와 같은 저지연 스트리밍 프로토콜 도입, 그리고 다중 영상 동시 표시 기능을 추가해 실시간성 및 확장성을 더욱 강화할 예정이다.


댓글 및 학술 토론

Loading comments...

의견 남기기