감정 기반 인공지능 에이전트가 네트워크형 죄수의 딜레마에서 인간 행동을 모방한다

감정 기반 인공지능 에이전트가 네트워크형 죄수의 딜레마에서 인간 행동을 모방한다
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 감정 제어 이론(ACT)을 확장한 BayesACT 에이전트를 이용해 반복 네트워크형 죄수의 딜레마(INPD)를 시뮬레이션한다. 실험 결과, 이 에이전트는 인간 플레이어가 보이는 다섯 가지 주요 특성 중 네 가지를 성공적으로 재현했으며, 기존의 모방 기반 에이전트보다 훨씬 인간에 가까운 행동 양식을 보였다.

상세 분석

본 연구는 사회적 딜레마를 모델링할 때 인간의 정서적·인지적 메커니즘을 동시에 고려해야 한다는 가정에서 출발한다. 감정 제어 이론(ACT)은 문화적으로 공유된 정서적 평가(Evaluation), 권위(Potency), 활력(Activity)이라는 3차원 EPA 공간을 통해 행위와 정체성 간의 기대 불일치를 ‘편차(deflection)’라는 수치로 정량화한다. 인간은 이 편차를 최소화하려는 경향이 있으며, 이는 행동 선택의 강력한 힌트가 된다. BayesACT는 ACT를 확률적 프레임워크로 일반화하여, EPA 값을 확률분포로 표현하고, 이를 부분관측 마코프 결정 과정(POMDP)으로 모델링한다. Monte‑Carlo Tree Search 기반의 정책 생성 과정에서 편차가 작은 행동이 탐색 우선순위가 되지만, 최종 행동은 보상 함수에 의해 결정된다. 이러한 설계는 ‘감정‑목표 통합’이라는 두 축을 동시에 만족시킨다.

논문은 이 모델을 네트워크형 죄수의 딜레마에 적용한다. 각 에이전트는 자신과 상대에 대한 정체성 분포를 ‘친구’와 ‘구두쇠’의 혼합으로 초기화하거나, 실제 인간 실험에서 측정된 EPA 값을 사용한다. 다중 상대 상황을 다루기 위해 개별 상대들의 EPA 평균을 하나의 ‘집합 상대’ EPA로 합산하는 방식을 채택했으며, 이는 계산 복잡성을 크게 낮추면서도 정서적 상호작용을 유지한다.

실험에서는 다양한 네트워크 토폴로지(격자, 무작위, 스케일프리)와 보상 행렬을 사용해 5가지 인간 특성(네트워크 구조 불변성, 협력 감소 추세, 협력‑보상의 반비례, Moody Conditional Cooperation, 플레이어 유형 계층화)을 검증했다. 결과는 BayesACT 에이전트가 네트워크 구조에 관계없이 유사한 협력 수준을 유지하고, 협력과 보상이 반비례하는 현상을 자연스럽게 재현함을 보여준다. 특히 ‘Moody Conditional Cooperation’(전 라운드의 협력·불협력 상태에 따라 다음 라운드 행동이 달라지는 현상)이 2/3 이상 사례에서 나타났으며, 이는 기존 모방 기반 에이전트가 한 가지 특성만 재현하던 것과 큰 차이를 만든다. 다만 장기적인 협력 감소 추세는 인간보다 완만하게 유지돼, 인간과 완전 일치하지는 않는다. 이는 정서적 편차 최소화가 보상 최대화보다 우선시되는 구조적 한계로 해석된다.

이 연구는 정서 모델링이 인간‑기계 상호작용에서 신뢰성과 예측 가능성을 높일 수 있음을 실증한다. 또한, 정서‑인지 통합 에이전트가 사회적 게임에서 인간 행동을 모방함으로써, 향후 인간‑에이전트 혼합 사회에서 협력적 규범을 형성하고 유지하는 데 기여할 수 있음을 시사한다.


댓글 및 학술 토론

Loading comments...

의견 남기기