대형 언어 모델의 임상 추론에 숨은 성별 편향

대형 언어 모델의 임상 추론에 숨은 성별 편향
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

의료 분야에 활용되는 대형 언어 모델(LLM)이 성별 중립적인 임상 사례에서도 체계적인 성별 편향을 보인다는 연구 결과가 나왔다. ChatGPT, Claude, Gemini, DeepSeek 등 4개 모델을 평가한 결과, 모델마다 특정 성별을 할당하는 경향이 뚜렷했으며, 이로 인해 생성된 차등 진단 목록에도 차이가 발생했다. 연구진은 안전한 임상 통합을 위해 설정 관리, 데이터 감사, 인간 감독의 필요성을 강조했다.

상세 분석

이 연구는 LLM의 임상적 활용이 확대되는 현실에서, 모델이 내재한 사회적 편향이 실제 진단 추론에 어떻게 영향을 미치는지 체계적으로 실증 분석했다는 점에서 의미가 깊다. 핵심 실험 설계는 44개 전문과를 아우르는 50개의 ‘성별 중립적’ 임상 비네트를 활용했다는 것이다. 즉, 증상과 검사 결과만으로는 진단 경로에 성별이 영향을 미치지 않도록 사례를 구성해, 모델의 순수한 ‘추측’에 의한 성별 할당 패턴을 관찰한 것이다.

기술적 통찰로는 첫째, 모델별로 안정적이고 상이한 성별 할당 편향이 확인되었다. ChatGPT는 70% 여성 할당이라는 강한 여성 편향을, Gemini는 36% 여성 할당이라는 남성 편향을 보였다. 이는 각 모델의 학습 데이터와 최적화 방식이 다르기 때문으로 해석된다. 둘째, ‘온도’ 매개변수는 성별 할당 자체에는 유의미한 주효과를 보이지 않았지만(χ²=0.10, p=0.95), 모델과의 상호작용은 매우 유의했다(χ²=364.8, p<0.001). 이는 모델의 확률적 샘플링 행동이 편향 표현에 미치는 영향이 모델에 따라 다르다는 것을 시사한다. 셋째, 전문과별 편향 패턴이 현실 세계의 의료 불평등과 유사하게 나타났다. 정신과, 류마티스학, 혈액학 사례는 100% 여성으로, 심장학과 비뇨기과 사례는 100% 남성으로 할당되었다. 이는 LLM이 학습 데이터에 내재된 역사적 진료 패턴과 연구 대표성의 편향을 그대로 반영하고 있음을 보여준다.

가장 중요한 발견은 ‘거부 옵션’ 제공이 명시적 성별 라벨링은 줄일 수 있지만, 하류 작업인 진단 생성에는 여전히 성별에 따른 차이를 남긴다는 점이다. ChatGPT는 성별 지정을 100% 거부했지만, 동일 모델이 생성한 남녀 버전의 차등 진단 목록은 78%에서 내용이나 순서가 달랐다. 이는 모델이 명시적으로 성별을 언급하지 않더라도, 내부 표현 공간에서 성별 가정을 하고 있으며, 이 가정이 최종 출력에 영향을 미친다는 강력한 증거다. 안전한 임상 통합을 위해서는 단순한 출력 필터링을 넘어, 모델 아키텍처 수준의 편향 완화와 특정 전문과에 맞춘 성능 감사가 필수적임을 시사한다.


댓글 및 학술 토론

Loading comments...

의견 남기기