생식건강 정보 탐색을 위한 생성AI 사용 여성들의 프라이버시와 안전 인식

본 연구는 미국 내 여성 18명을 대상으로, 낙태 권리 제한 이후 생성형 AI 챗봇을 통해 성·생식건강(SRH) 정보를 찾는 과정에서 경험한 프라이버시·안전 우려와 대처 방식을 심층 인터뷰로 조사하였다. 유용성, 사용성, 신뢰성, 접근성, 인간화된 인터페이스가 채택을 촉진했으며, 데이터 수집·프로파일링·정부 감시·모델 학습 등 다양한 위험을 인식했지만 대부분은 효용을 위해 위험을 감수했다. 낙태 관련 질의는 특히 높은 안전 우려를 야기했으며, …

저자: Ina Kaleva, Xiao Zhan, Ruba Abu-Salma

본 논문은 2026년 CHI 학회에 발표된 ‘Privacy and Safety Experiences and Concerns of U.S. Women Using Generative AI for Seeking Sexual and Reproductive Health Information’라는 연구를 한국어로 종합·분석한다. 연구 배경은 2022년 미국 대법원의 Dobbs 판결(‘Roe v. Wade’ 폐지) 이후 낙태와 관련된 법적·사회적 위험이 급증함에 따라, 여성들이 온라인에서 특히 생성형 인공지능(GenAI) 챗봇을 활용해 성·생식건강(SRH) 정보를 탐색하는 현상이 확대된 점이다. 기존 연구는 주로 모델의 기술적 성능이나 임상적 효용에 초점을 맞추었으나, 사용자 관점에서의 프라이버시·안전 경험은 충분히 조명되지 않았다. 연구 목적은 네 가지 질문(RQ1‑RQ4)에 답함으로써, (1) GenAI 챗봇 채택을 촉진·제한하는 요인, (2) 사용자가 인식하는 데이터 흐름·관행, (3) 프라이버시·안전 위험 인식 및 주·주제별 차이, (4) 사용자가 실제로 취하는 보호 전략 및 설계·정책적 개선 방안을 도출하는 것이다. 방법론은 반구조화 인터뷰(semi‑structured interview)이며, 미국 전역에서 18명의 ‘여성(assigned female at birth)’을 purposive sampling으로 선정했다. 참여자는 18‑45세 사이이며, ‘제한적(abortion‑restrictive)’ 주와 ‘비제한적(non‑restrictive)’ 주에 균등하게 배분되었다. 인터뷰는 온라인 화상 회의로 진행됐으며, 각 인터뷰는 60‑90분 정도 소요되었다. 데이터는 녹음 후 전사, 코딩, 주제별 분석을 거쳐 주요 테마를 도출했다. 주요 결과는 다음과 같다. 1. **채택 촉진 요인**: ‘유용성(utility)’—빠른 답변과 맞춤형 정보 제공, ‘사용성(usability)’—직관적 대화 인터페이스, ‘신뢰성(credibility)’—전문가 수준의 답변 인식, ‘접근성(accessibility)’—24/7 이용 가능, ‘인간화(anthropomorphism)’—친근한 대화 스타일이 핵심이었다. 특히, 인간과 유사한 대화가 사용자의 심리적 안도감을 높여 민감한 SRH 질문을 자연스럽게 이끌어냈다. 2. **채택 저해 요인**: 심각한 의료 상황에 대한 상담은 ‘전문가 부재’, ‘답변 정확도 불확실성’, ‘편향 가능성’ 등으로 제한적이었다. 또한, 일부 사용자는 ‘데이터 수집·저장’에 대한 불신으로 사용을 꺼렸다. 3. **데이터 흐름 인식**: 대부분의 참가자는 챗봇이 대화 내용을 광범위하게 수집·저장·모델 학습에 활용한다는 점을 인지했지만, 구체적인 보관 기간, 제3자 공유 여부, 삭제 메커니즘 등에 대해서는 명확히 알지 못했다. 이로 인해 ‘과도한 데이터 수집’, ‘정부 감시’, ‘프로파일링’, ‘데이터 상업화’ 등에 대한 우려가 표출되었다. 4. **프라이버시·안전 위험**: 참가자는 ‘데이터 유출 → 형사처벌(특히 낙태 관련)’, ‘감정적 고통·사회적 낙인’, ‘스톡킹·협박’ 등을 주요 위험으로 꼽았다. 낙태 관련 질의는 특히 높은 안전 우려를 야기했으며, 일부는 질문 자체를 회피하거나 우회 질문을 사용했다. 5. **보호 전략**: 대부분은 ‘데이터 최소화(필요 최소 정보만 제공)’, ‘대화 종료 후 직접 삭제’에 의존했으며, ‘VPN·프록시 사용’, ‘익명 계정 활용’ 등 고급 프라이버시 도구는 거의 사용되지 않았다. 일부는 ‘전통적인 의료기관 웹사이트’나 ‘비공개 포럼’으로 전환하는 전략을 취했다. 6. **디자인·정책 제언**: - **건강 전용 인터페이스**: 대화 내용 자동 삭제 옵션, 민감도 기반 프라이버시 설정 등. - **강화된 모더레이션**: SRH 특화 위험 감지 알고리즘, 부적절·위험 정보 차단. - **투명성 강화**: 데이터 수집·보관·사용에 대한 명확한 고지, 사용자 교육 자료 제공. - **법적·규제 보호**: HIPAA와 유사한 연방·주 차원의 프라이버시 보호법 확대, 주별 차별 규제 완화. 연구는 기존 GenAI 관련 프라이버시 연구가 모델 중심(기술적 위험)으로 한정된 점을 보완하고, 실제 사용자 경험을 통해 ‘프라이버시·안전 인식’과 ‘보호 행동’을 구체적으로 제시한다는 점에서 의의가 크다. 다만, 표본 규모가 작고, 자기보고식 인터뷰에 의존해 실제 데이터 흐름을 검증하지 못했다는 한계가 있다. 향후 연구는 대규모 설문, 로그 데이터 분석, 다양한 문화·언어권을 포함한 비교 연구가 필요하다. 결론적으로, 생성형 AI 챗봇은 SRH 정보 접근성을 크게 향상시켰지만, 민감한 개인 정보가 대규모로 수집·학습되는 구조적 위험이 존재한다. 특히 낙태와 같이 법적·사회적 위험이 높은 주제에서는 프라이버시·안전 보호가 필수적이며, 이를 위해 기술적 설계와 정책적 규제 모두가 동시에 강화돼야 한다.

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기