거리 기반 역설적 의미론을 이용한 DL‑Lite 비정합 처리
초록
본 논문은 DL‑Lite 지식베이스가 불일치 상황에 빠졌을 때, 특징(feature) 개념을 활용해 타입 간 거리 함수를 정의하고, 최소 거리 특징을 기반으로 새로운 파라콘시스(entailment) 관계를 제시한다. 제안된 거리‑기반 의미론은 기존의 최대 일관 부분집합 방식이나 4‑값 의미론보다 더 세밀하게 정보를 활용하며, 일관적인 KB에 대해서는 고전 의미론과 일치한다. 또한 비단조성, 신중성, 비과도주의 등 중요한 논리적 성질을 만족한다는 이론적 결과를 제공한다.
상세 분석
DL‑Lite는 경량화된 설명 논리로 OWL 2 QL 프로파일의 기반을 이루지만, TBox와 ABox 사이의 제약 위반으로 인해 쉽게 비정합 상태에 빠진다. 기존 접근법은 크게(1) 불일치를 일으키는 데이터 자체를 제거해 최대 일관 서브셋을 찾는 ‘수리적 복구’와 (2) 4‑값 혹은 quasi‑classical 의미론을 도입해 모순을 동시에 허용하는 ‘비정합 공존’으로 나뉜다. 그러나 전자는 여러 가능한 복구본 중 하나만 선택하게 되어 정보 손실이 크고, 후자는 경우에 따라 일관적인 KB에서도 기대되는 결론을 도출하지 못한다는 한계가 있다.
이 논문은 이러한 한계를 극복하기 위해 ‘특징(feature)’이라는 개념을 도입한다. 특징은 Herbrand 기반의 제한된 구조를 가진 해석으로, 각 개체에 대해 유한한 타입 집합을 할당하고, 역할 일관성(role coherence)을 보장한다. 특징은 타입이 유한하고 전체 KB에 대해 유한 개만 존재하므로, 무한 모델 문제를 회피하면서도 모델‑기반 의미론을 구현할 수 있다.
핵심은 두 타입 사이의 거리 함수를 정의한 것이다. 저자는 대칭 차집합을 이용한 해밍 거리와 0/1 형태의 급진적 거리를 예시로 제시하고, 다중 거리 값을 하나의 실수로 합치는 ‘집계 함수(aggregation function)’를 도입한다. 집계 함수는 비감소, 0값 특성, 단일 입력에 대한 동일성 등을 만족한다. 이렇게 정의된 λ_{d,f}(τ,Π)는 타입 τ가 타입 그룹 Π에 대해 얼마나 ‘가까운지’를 정량화한다.
다음 단계는 최소 거리 타입을 구하는 것이다. 최소 타입 집합 Λ_{d,f}(Π,Ξ)는 모든 타입 τ에 대해 λ값이 최소인 τ들의 집합이며, 최소 타입이 항상 존재함을 정리 1·2를 통해 보인다. 그러나 최소 타입 집합은 역할 일관성을 깨뜨릴 수 있다(예시 1). 이를 보완하기 위해 반복 연산 µ_{d,f}를 정의하고, 고정점 Ξ⁺을 구한다. 최종적으로 Λ⁺_{d,f}(Π(T),T_Σ)는 역할 일관성을 유지하면서도 최소 거리 특성을 만족하는 ‘최소 모델 타입 집합’이 된다.
이 최소 모델 타입 집합을 기반으로 ‘거리‑기반 엔텔먼트’(distance‑based entailment)를 정의한다. KB K가 어떤 논리식 φ를 거리‑기반으로 함의한다는 것은, K의 모든 최소 모델 특징이 φ를 만족하는 특징을 포함한다는 의미이다. 이 엔텔먼트는 다음과 같은 중요한 성질을 가진다.
- 파라콘시스(paraconsistency) – 불일치가 존재해도 모든 논리식이 추론되지 않는다.
- 비단조성(non‑monotonicity) – 추가적인 사실이 기존 결론을 무효화할 수 있다.
- 신중성(cautiousness) – 기존 4‑값 의미론보다 더 보수적이며, 불필요한 결론을 억제한다.
- 일관성 보존(consistency preservation) – KB가 일관적이면 거리‑기반 엔텔먼트는 고전 의미론과 동일하게 동작한다.
이러한 성질을 정리와 증명을 통해 보이며, 특히 (3)과 (4)는 기존 파라콘시스 접근법에서 흔히 놓치는 부분이다. 또한, 제안된 방법은 DL‑Liteⁿᵇᵒᵒˡ의 타입·특징 구조를 이용하므로, 다른 DL‑Lite 변형에도 쉽게 확장 가능하다는 점을 강조한다.
전체적으로 논문은 ‘거리’를 이용해 모델‑기반 의미론을 제한된 특징 공간으로 옮김으로써, 무한 모델 문제와 역할 일관성 문제를 동시에 해결한다. 이는 기존의 ‘최대 일관 서브셋’이나 ‘4‑값’ 접근법보다 더 세밀하고 실용적인 비정합 추론 프레임워크를 제공한다는 점에서 학술적·실용적 의의가 크다.
댓글 및 학술 토론
Loading comments...
의견 남기기