AI 자기선호가 초래하는 채용 불공정: 알고리즘·실증·대응 방안

AI 자기선호가 초래하는 채용 불공정: 알고리즘·실증·대응 방안
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 연구는 구직자가 LLM을 이용해 이력서를 작성하고, 기업도 동일 LLM을 활용해 이력서를 평가하는 상황에서 발생하는 ‘자기선호 편향’을 실증적으로 규명한다. 대규모 이력서 대응 실험과 24개 직종에 대한 시뮬레이션을 통해, 동일 모델이 생성한 이력서가 인간이 쓴 이력서보다 23 %~60 % 더 높은 서류통과 확률을 보이며, 편향 정도는 모델에 따라 67 %~82 %에 달한다는 것을 확인한다. 시스템 프롬프트와 다수결 앙상블을 활용한 간단한 개입으로 편향을 50 % 이상 감소시킬 수 있음을 제시한다.

상세 분석

이 논문은 AI‑AI 상호작용이라는 새로운 편향 메커니즘을 ‘자기선호 편향(self‑preference bias)’이라 정의하고, 이를 채용 알고리즘에 적용해 실증적 증거를 제공한다. 연구 설계는 두 단계로 구성된다. 첫 번째는 2,245개의 실제 인간 이력서를 기반으로, GPT‑4o, GPT‑4‑turbo, LLaMA 3.3‑70B, Mistral‑7B, Qwen‑2.5‑72B, DeepSeek‑V3 등 7개의 최신 LLM을 이용해 각각 1~2개의 변형 이력서를 생성한 뒤, 동일 모델을 평가자로 사용해 ‘LLM‑vs‑Human’ 및 ‘LLM‑vs‑LLM’ 두 형태의 선호도를 측정한다. 여기서 내용 품질을 통제하기 위해 인간 이력서와 모델이 만든 변형 이력서 간의 직무 적합도, 문법 정확도, 핵심 역량 점수를 사전 검증하였다. 결과는 대부분의 대형 모델이 자기 생성 텍스트를 65 % 이상, 특히 GPT‑4o는 80 %에 달하는 확률로 선호한다는 강력한 증거를 제시한다. 반면 모델 간 비교에서는 편향이 이질적이며, DeepSeek‑V3가 다른 모델 대비 자기 텍스트를 69 %까지 선호하는 등 모델 특성에 따라 차이가 크게 나타난다.

두 번째 단계는 24개 직종(회계·영업·금융·농업·예술·자동차 등)을 대상으로 한 시뮬레이션이다. 각 직종별 채용 파이프라인에 용량 제한(예: 면접 슬롯 수)과 LLM 기반 서류심사 과정을 모델링하고, 동일 LLM을 사용한 지원자와 인간이 작성한 지원자를 비교한다. 시뮬레이션 결과, 동일 LLM을 사용한 지원자는 인간 이력서 대비 23 %~60 % 높은 서류통과 확률을 보였으며, 특히 비즈니스 분야에서 그 격차가 크게 나타났다. 이는 ‘잠금‑인(lock‑in) 효과’를 초래해 특정 스타일의 이력서가 시장에 편입되고, 장기적으로 다양성과 형평성을 저해할 위험을 시사한다.

편향 완화 전략으로는 (1) 시스템 프롬프트를 통해 모델에게 ‘출처 무시’를 명시적으로 지시하고, (2) 자기인식 능력이 약한 소형 모델을 다수결 앙상블에 포함시키는 두 가지 방법을 제안한다. 실험 결과, 두 전략 모두 LLM‑vs‑Human 편향을 평균 17 %~63 % 감소시켰으며, 특히 앙상블 방식이 대형 모델의 고정된 스타일을 효과적으로 희석한다는 점이 주목된다.

이 논문은 기존 알고리즘 공정성 연구가 인구통계학적 차별에 초점을 맞추던 한계를 넘어, AI 자체가 생성·평가 양쪽에서 발생시키는 구조적 편향을 규명한다. 연구 결과는 기업의 AI 채용 도입 정책, 규제 기관의 가이드라인, 그리고 LLM 개발자에게 ‘자기인식 억제’를 설계 목표에 포함시킬 필요성을 강조한다.


댓글 및 학술 토론

Loading comments...

의견 남기기