퍼포머티브 학습 이론: 예측이 데이터를 바꾸는 세계에서의 일반화 한계

퍼포머티브 학습 이론: 예측이 데이터를 바꾸는 세계에서의 일반화 한계
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

**
본 논문은 모델의 예측이 데이터 자체를 변화시키는 ‘퍼포머티브 예측’ 상황에서, 샘플과 전체 모집단에 대한 일반화 오류를 정량화한다. 최소-최대·최소-최소 위험을 Wasserstein 공간에서 정의하고, 수행 효과가 클수록 학습 가능성이 감소한다는 근본적 트레이드오프를 제시한다. 또한 퍼포머티브하게 왜곡된 샘플을 재학습함으로써 일반화 경계를 개선할 수 있음을 보이며, 독일 실업자 직업훈련 배정 사례를 통해 실증적 검증을 수행한다.

**

상세 분석

**
논문은 퍼포머티브 예측(Performative Prediction, PP)이 샘플과 모집단 모두에 미치는 영향을 통합적으로 분석한다. 기존 연구는 주로 전체 모집단에 대한 안정성·최적성에 초점을 맞추었으나, 실제 데이터는 제한된 샘플에서만 관측되므로 샘플 수준의 퍼포머티브 효과를 고려해야 한다는 점을 강조한다. 이를 위해 저자들은 위험 함수 R(d,θ)=E_{Z∼d}


댓글 및 학술 토론

Loading comments...

의견 남기기