LLM이 당신의 이름에 연관시키는 개인정보는 무엇일까
초록
본 논문은 대형 언어 모델(LLM)이 개인의 이름을 입력받았을 때 어떤 개인정보를 연관시켜 생성하는지를 인간 중심의 블랙박스 감사 도구인 LMP2를 통해 조사한다. 8개의 LLM(GPT‑4o 포함)과 50개의 인물 속성을 대상으로 실험했으며, 유명 인물과 일반 EU 거주자를 비교한다. 결과는 GPT‑4o가 일반 사용자에 대해 11개의 속성을 60 % 이상 정확도로 생성한다는 점을 보여준다. 설문 조사에서는 참여자의 72 %가 자신에 대한 모델 연관성을 통제하고 싶다고 답했으며, 이는 개인정보 보호법 적용 범위 확대 필요성을 시사한다.
상세 분석
본 연구는 LLM이 사전 학습 단계와 사용자 인터랙션을 통해 축적한 개인 데이터를 어떻게 기억하고 재생산하는지를 정량화하고, 이를 일반 사용자가 직접 검증할 수 있는 인터페이스를 제공한다는 점에서 의미가 크다. 먼저 저자들은 WikiMem 프레임워크를 블랙박스 API에 맞게 변형해 8개의 상용·오픈소스 모델에 243개의 인간 속성(예: 출생연도, 눈색, 언어) 중 50개를 대상으로 ‘연관 강도’와 ‘신뢰도’를 측정하였다. 유명 인물(디지털 발자국이 풍부한 경우)과 합성 인물(온라인 흔적이 없는 경우)을 비교한 결과, 모델은 실제 인물에 대해 현저히 높은 정확도와 자신감을 보였으며, 이는 훈련 데이터에 존재하는 공개 정보가 모델의 기억에 강하게 남는다는 것을 입증한다.
특히 GPT‑4o는 일반 EU 거주자에 대해 눈색, 머리색, 사용 언어, 성적 지향 등 저빈도 속성까지 60 % 이상 정확도로 예측했으며, 이는 기존 연구가 주로 강조한 ‘문자열 그대로 복제’보다 더 미묘한 ‘속성 추론’ 위험을 부각시킨다. LMP2 도구는 사용자가 자신의 이름을 입력하면 모델이 반환하는 속성 리스트와 각 속성에 대한 확률 점수를 시각화한다. 두 차례의 형성 연구(N=20)를 통해 프롬프트 설계, 결과 해석 UI, 개인정보 민감도 표시 방식을 개선했으며, 최종 사용자 연구(N=155, N=303)에서는 참가자 72 %가 ‘내 이름에 대한 모델의 연관성을 확인하고 제어하고 싶다’고 답했다. 이는 GDPR의 접근·정정·삭제 권리가 LLM 출력에도 적용되어야 한다는 법적·정책적 논의를 촉발한다.
기술적 측면에서 저자들은 현재의 사후적 ‘잊히기(unlearning)’ 기법이 모델 내부에 이미 내재된 연관성을 완전히 제거하기 어렵고, API 기반 모델에서는 내부 파라미터 접근이 제한적이므로 사용자 수준의 감사가 필수적임을 강조한다. 또한, 모델이 제공하는 확률 기반 신뢰도 점수가 사용자가 위험을 판단하는 데 실질적인 도움이 될 수 있음을 실증적으로 보여준다.
결론적으로, 이 논문은 LLM 개인정보 노출 위험을 정량화하고, 일반 사용자가 직접 검증·통제할 수 있는 도구를 제공함으로써 기술·법·사용자 경험을 연결하는 중요한 교량 역할을 수행한다.
댓글 및 학술 토론
Loading comments...
의견 남기기