프라이버시 보호를 위한 해석 가능한 머신러닝 프레임워크
초록
본 논문은 일상 생활에서 생성되는 디지털 트레이스를 분석해 사용자의 사생활 침해 요인을 시각화하고 설명하는 해석 가능 머신러닝 모델을 제안한다. 프라이버시 위험을 정량화하고, 사용자가 직접 위험 요인을 검증·조정할 수 있는 인터페이스를 설계함으로써 투명한 데이터 활용을 목표한다.
상세 분석
이 연구는 퍼베이시스(pervasive) 시스템이 수집하는 로그, 센서 데이터, 위치 기록 등 다양한 트레이스를 고차원 특성 공간으로 매핑한 뒤, 프라이버시 침해 가능성을 예측하는 지도학습 모델을 구축한다. 핵심 기법은 두 단계로 구성된다. 첫째, 개인정보 노출 위험을 정의하기 위해 ‘민감도 스코어’를 도입한다. 이는 각 특성이 특정 개인 식별자(PII) 혹은 행동 패턴과 얼마나 강하게 상관관계가 있는지를 정량화한 값으로, 도메인 전문가와 사용자 설문을 통해 라벨링된 데이터셋을 기반으로 베이지안 네트워크를 학습한다. 둘째, 모델의 해석성을 확보하기 위해 SHAP(Shapley Additive exPlanations)와 LIME(Local Interpretable Model‑agnostic Explanations) 같은 포스트호크 기법을 적용한다. 하지만 기존 방법은 개별 특성의 기여도만 제공하므로, 저자들은 이를 확장해 ‘특성 집합 기여도’를 계산하는 알고리즘을 제안한다. 이 알고리즘은 특성 간 상호작용을 고려해 전체 트레이스가 프라이버시 위험에 미치는 복합 효과를 시각화한다.
프레임워크는 또한 사용자 중심 인터페이스를 제공한다. 사용자는 자신의 데이터 흐름을 그래프 형태로 확인하고, 특정 특성(예: Wi‑Fi SSID, 앱 사용 시간)의 SHAP 값이 높은 경우 해당 데이터를 비활성화하거나 가공할 수 있다. 시스템은 실시간으로 위험 점수를 재계산해 피드백을 제공한다.
실험에서는 스마트폰 로그, 스마트 홈 센서, 차량 텔레매틱스 등 세 가지 실제 데이터셋을 활용했다. 각 데이터셋에 대해 10‑fold 교차 검증을 수행했으며, 제안한 모델은 기존 딥러닝 기반 프라이버시 예측 모델 대비 평균 12% 높은 정확도와 0.18 낮은 Brier 스코어를 기록했다. 해석 가능성 측면에서는 사용자 설문 결과, 제안된 시각화 도구가 ‘위험 인식 향상’과 ‘데이터 제어 의지 강화’에 유의미한 영향을 미쳤다(p < 0.01).
한계점으로는 라벨링 비용이 높고, 민감도 스코어가 도메인에 따라 크게 변동한다는 점을 들었다. 향후 연구에서는 연합 학습(Federated Learning)과 차등 프라이버시(Differential Privacy)를 결합해 라벨링 없이도 위험 모델을 학습하는 방안을 모색한다.
댓글 및 학술 토론
Loading comments...
의견 남기기