활성 개념 학습에서 “확증 편향”이 합리적 전략이 될 수 있다

활성 개념 학습에서 “확증 편향”이 합리적 전략이 될 수 있다
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

이 논문은 대형 언어 모델(LLM)이 생성한 프로그램을 가설 공간으로 사용하는 베이지안 개념 학습 시스템을 구축하고, 정보이득을 최대화하는 EIG 정책과 인간이 흔히 사용하는 긍정 테스트 전략(PTS)을 비교한다. 실험 결과, 단순 규칙에서는 PTS가 제안된 프로그램의 유효성을 유지해 빠르게 수렴하지만, 복합 규칙에서는 EIG가 더 효율적이다. 핵심 원인은 EIG가 선택한 경계 쿼리가 LLM의 제안 분포 지원 영역을 벗어나게 만들어 입자(파티클) 붕괴와 재생성 실패를 초래하는 “지원 불일치 함정(support‑mismatch trap)”이다. 따라서 인간의 확증 편향은 희소하고 개방형 가설 공간에서 추론을 안정화시키는 합리적 적응일 수 있다.

상세 분석

본 연구는 베이지안 프로그램 학습(BPL)의 전통적 한계를 극복하고자, 관찰된 레이블 집합 Dₜ를 프롬프트로 사용해 LLM(Gemini 2.5 Flash)으로부터 실행 가능한 파이썬 함수 형태의 가설 h를 샘플링한다. 제안 분포 q₍LLM₎(h|Dₜ)는 사전‑후처리 단계에서 구문 오류와 현재 데이터와의 불일치를 걸러내어 유효한 파티클 집합 N개를 유지한다. 파티클 가중치는 사전(p(h))과 데이터 가능도(p(Dₜ|h))에 비례하며, 사전은 코드‑모델 토큰 로그 확률을 이용한 설명 길이 편향을 포함한다.

두 가지 액티브 쿼리 정책을 구현한다. ① 기대 정보 이득(EIG) 정책은 현재 파티클 분포의 엔트로피 감소를 기대값으로 계산해, 각 후보 인스턴스 x에 대해 EIG(x;Dₜ)=H


댓글 및 학술 토론

Loading comments...

의견 남기기