REMISVFU 중간 출력 특징을 위한 표현 오도 기반 수직 연합 학습 언러닝

읽는 시간: 2 분
...

📝 원문 정보

  • Title: REMISVFU: Vertical Federated Unlearning via Representation Misdirection for Intermediate Output Feature
  • ArXiv ID: 2512.10348
  • 발행일: 2025-12-11
  • 저자: Wenhan Wu, Zhili He, Huanghuang Liang, Yili Gong, Jiawei Jiang, Chuang Hu, Dazhao Cheng

📝 초록 (Abstract)

GDPR 등 데이터 보호 규정은 연합 학습 참여자에게 ‘잊혀질 권리’를 부여한다. 이에 따라 특정 파티의 기여를 모델에서 제거하면서 나머지 파티의 유용성을 유지하는 연합 언러닝이 연구되고 있다. 기존 대부분의 언러닝 기법은 샘플 단위로 데이터를 분할하는 수평 연합 학습(HFL)에 초점을 맞추고 있다. 반면, 수직 연합 학습(VFL)은 서로 보완적인 특성 공간을 가진 조직이 원시 데이터를 공유하지 않고 공동 모델을 학습하도록 한다. 이러한 특성‑분할 구조는 HFL‑기반 언러닝 방법을 무력화한다. 본 논문에서는 split‑VFL 시스템에서 빠른 클라이언트‑레벨 언러닝을 가능하게 하는 플러그‑인 프레임워크인 REMISVFU를 제안한다. 삭제 요청이 들어오면, 해당 파티는 인코더 출력을 단위 구면 위의 무작위 앵커로 수축시켜 자신의 특성과 전역 모델 사이의 통계적 연관성을 차단한다. 남은 파티들의 유틸리티를 유지하기 위해 서버는 보존 손실과 망각 손실을 동시에 최적화하고, 두 손실의 그래디언트를 직교 투영으로 정렬하여 파괴적 간섭을 제거한다. 공개 벤치마크 실험 결과, REMISVFU는 백도어 공격 성공률을 자연 클래스 사전 확률 수준으로 낮추면서도 클린 정확도는 약 2.5% 포인트만 감소시켜 기존 최첨단 방법들을 능가한다.

💡 논문 핵심 해설 (Deep Analysis)

Figure 1
본 연구는 연합 학습 환경에서 개인 정보 보호 요구가 점점 강화되는 현시점에, 특히 수직 연합 학습(VFL)이라는 비교적 새로운 패러다임에 맞춘 언러닝 메커니즘을 제시한다는 점에서 큰 의의를 가진다. VFL은 데이터가 특성 차원에서 파티별로 분할되어 있어, 각 파티가 자신의 원시 데이터를 노출하지 않으면서도 공동 모델을 학습할 수 있게 한다. 이러한 구조는 기존 HFL 기반 언러닝 기법이 가정하는 ‘샘플‑레벨’ 삭제와는 근본적으로 다르다. 즉, HFL에서는 특정 샘플을 제거하면 해당 샘플이 포함된 로컬 모델 파라미터를 재학습하거나 역전파를 통해 영향을 없앨 수 있지만, VFL에서는 파티 전체가 제공하는 특성 벡터 자체가 모델 입력에 직접 연결되므로 파티 수준의 삭제는 전체 모델 구조에 더 큰 파급 효과를 미친다.

REMISVFU는 이러한 문제를 해결하기 위해 ‘표현 오도(Representation Misdirection)’라는 …

📄 논문 본문 발췌 (Translation)

...(본문 내용이 길어 생략되었습니다. 사이트에서 전문을 확인해 주세요.)

검색 시작

검색어를 입력하세요

↑↓
ESC
⌘K 단축키