확률 논리 프로그램 추론과 학습을 위한 가중 부울식

확률 논리 프로그램 추론과 학습을 위한 가중 부울식
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 확률 논리 프로그램(ProbLog)의 추론과 파라미터 학습을, 프로그램을 가중 부울식으로 변환한 뒤 가중 모델 카운팅(WMC)과 가중 MAX‑SAT 솔버에 귀착시킴으로써 효율적으로 수행하는 방법을 제시한다. EM 기반 학습 알고리즘(LFI‑ProbLog)도 동일한 변환·컴파일 파이프라인 위에 구축된다.

상세 분석

이 연구는 확률 논리 프로그램(ProbLog)의 두 핵심 문제, 즉 증거가 주어진 마진(MARG) 추론과 가장 가능성 높은 전역 상태(MPE) 찾기를 기존 그래프 모델 분야에서 널리 사용되는 가중 부울식(weighted Boolean formula)으로 변환하는 방법을 제안한다. 변환 과정은 크게 두 단계로 이루어진다. 첫 번째 단계에서는 프로그램을 전면적으로 그라운딩하고, 각 확률 사실을 독립적인 원자 선택(atom)으로 모델링한다. 그런 다음 논리 규칙을 논리식으로 전환하여 CNF 혹은 DNF 형태의 부울식에 매핑한다. 여기서 중요한 점은 ‘강도 있는’(intensional) 확률 사실을 명시적 그라운드 사실 집합으로 풀어내어, 모든 가능한 세계(total choice)를 정확히 기술한다는 것이다. 두 번째 단계에서는 생성된 부울식을 지식 컴파일(knowledge compilation) 기법을 이용해 결정적 디스크리미네이터형 논리 회로(d‑DNNF) 혹은 OBDD/BDD와 같은 구조로 변환한다. d‑DNNF는 가중 모델 카운팅을 선형 시간에 수행할 수 있는 특성을 가지며, 증거가 추가될 때도 효율적인 업데이트가 가능하다. 이렇게 컴파일된 회로에 대해 WMC 솔버를 적용하면 마진 확률을 정확히 계산할 수 있고, 가중 MAX‑SAT 솔버를 사용하면 MPE(가장 가능성 높은 해)를 구한다.

학습 측면에서는 ‘interpretation 기반 학습(LFI)’ 설정을 채택한다. 관측된 해석(interpretation) 집합이 주어지면, EM 알고리즘을 통해 파라미터를 추정한다. E‑스텝에서는 현재 파라미터 하에서 각 가능한 세계의 사후 확률을 WMC를 통해 얻고, M‑스텝에서는 이러한 사후 확률을 이용해 각 확률 사실의 기대 횟수를 계산한 뒤, 베르누이 파라미터의 최대우도 추정값으로 업데이트한다. 기존 ProbLog1이 BDD 기반 EM을 사용했던 것과 달리, 본 논문은 d‑DNNF 기반 컴파일을 활용함으로써 메모리 사용량과 실행 시간이 크게 개선된다.

또한, 이 접근법은 Markov Logic Networks(MLN)와의 관계를 명확히 한다. MLN이 논리식에 가중을 부여해 마코프 랜덤 필드를 구성하듯, ProbLog은 논리 프로그램에 확률 사실을 부여하고, 변환 후 가중 부울식으로 동일한 수학적 구조를 갖는다. 따라서 그래프 모델 커뮤니티에서 개발된 최신 WMC/MAX‑SAT 솔버와 직접 연동할 수 있다.

실험에서는 여러 관계형 데이터베이스(Alarm, WebKB 등)를 대상으로 기존 ProbLog1, Alchemy, 그리고 최신 SRL 시스템과 비교했으며, 추론 정확도는 동일하거나 더 높고, 실행 시간은 평균 2~5배 가량 빠른 결과를 보였다. 특히 대규모 도메인에서 d‑DNNF 컴파일이 BDD보다 훨씬 효율적임을 확인했다.

이 논문은 확률 논리 프로그램을 부울식 기반 최적화 문제로 재구성함으로써, 그래프 모델 분야의 강력한 알고리즘을 PLP에 직접 적용할 수 있는 길을 열었다는 점에서 학술적·실용적 의의가 크다.


댓글 및 학술 토론

Loading comments...

의견 남기기