REMISVFU 중간 출력 특징을 위한 표현 오도 기반 수직 연합 학습 언러닝
읽는 시간: 2 분
...
📝 원문 정보
- Title: REMISVFU: Vertical Federated Unlearning via Representation Misdirection for Intermediate Output Feature
- ArXiv ID: 2512.10348
- 발행일: 2025-12-11
- 저자: Wenhan Wu, Zhili He, Huanghuang Liang, Yili Gong, Jiawei Jiang, Chuang Hu, Dazhao Cheng
📝 초록 (Abstract)
GDPR 등 데이터 보호 규정은 연합 학습 참여자에게 ‘잊혀질 권리’를 부여한다. 이에 따라 특정 파티의 기여를 모델에서 제거하면서 나머지 파티의 유용성을 유지하는 연합 언러닝이 연구되고 있다. 기존 대부분의 언러닝 기법은 샘플 단위로 데이터를 분할하는 수평 연합 학습(HFL)에 초점을 맞추고 있다. 반면, 수직 연합 학습(VFL)은 서로 보완적인 특성 공간을 가진 조직이 원시 데이터를 공유하지 않고 공동 모델을 학습하도록 한다. 이러한 특성‑분할 구조는 HFL‑기반 언러닝 방법을 무력화한다. 본 논문에서는 split‑VFL 시스템에서 빠른 클라이언트‑레벨 언러닝을 가능하게 하는 플러그‑인 프레임워크인 REMISVFU를 제안한다. 삭제 요청이 들어오면, 해당 파티는 인코더 출력을 단위 구면 위의 무작위 앵커로 수축시켜 자신의 특성과 전역 모델 사이의 통계적 연관성을 차단한다. 남은 파티들의 유틸리티를 유지하기 위해 서버는 보존 손실과 망각 손실을 동시에 최적화하고, 두 손실의 그래디언트를 직교 투영으로 정렬하여 파괴적 간섭을 제거한다. 공개 벤치마크 실험 결과, REMISVFU는 백도어 공격 성공률을 자연 클래스 사전 확률 수준으로 낮추면서도 클린 정확도는 약 2.5% 포인트만 감소시켜 기존 최첨단 방법들을 능가한다.💡 논문 핵심 해설 (Deep Analysis)

REMISVFU는 이러한 문제를 해결하기 위해 ‘표현 오도(Representation Misdirection)’라는 …