반항형 온라인 HTN 계획: 안전과 게임 AI를 위한 새로운 접근

반항형 온라인 HTN 계획: 안전과 게임 AI를 위한 새로운 접근
안내: 본 포스트의 한글 요약 및 분석 리포트는 AI 기술을 통해 자동 생성되었습니다. 정보의 정확성을 위해 하단의 [원본 논문 뷰어] 또는 ArXiv 원문을 반드시 참조하시기 바랍니다.

초록

본 논문은 내장된 안전·성격 지시문 D를 고려하여 온라인으로 HTN(계층적 작업 네트워크) 계획을 수행하는 두 종류의 반항형 에이전트를 제안한다. 비적응형 에이전트는 D 위반 시 실행을 중단하고, 적응형 에이전트는 계획을 수정해 목표 달성을 시도한다. 제안된 R‑HTN 알고리즘을 O‑RESCHU와 MONSTER 두 도메인에 적용해 실험한 결과, 적응형 에이전트는 목표 달성률이 가장 높으며 모든 에이전트가 D를 위반하지 않음을 확인하였다.

상세 분석

R‑HTN 논문은 기존 HTN 계획에 “지시문 D”라는 제약을 도입함으로써, 에이전트가 사용자 명령을 무조건 수행하지 않고 상황에 따라 반항(지능적 불복종)할 수 있는 메커니즘을 설계했다. 핵심 아이디어는 D를 상태 s에 대한 불일치 δ(s) 함수로 정의하고, 이를 즉시(Immediate)·예측(Projected)·수정(Adaptive) 세 종류의 불일치로 구분한다. 즉시 불일치는 현재 위치가 위험 구역에 들어갔을 때, 예측 불일치는 향후 n 단계 내에 위험 구역에 진입할 가능성을 판단한다. 적응형 불일치는 이러한 예측을 바탕으로 기존 계획 π를 대체할 수 있는 π′ 를 생성해 목표 g를 달성하면서 D를 회피하도록 한다.

알고리즘 구현 측면에서 저자들은 SHOP 기반의 전통적 HTN 플래너를 확장하였다. RSeekPlan 함수는 재귀적으로 작업 리스트 ˜t 를 분해하고, 원시 작업에 대해 RepairTasksIfNeeded 절차를 삽입해 D 위반 여부를 검사한다. 위반이 감지되면 도메인‑특화 repairTaskListState 또는 repairTaskListEffect 함수를 호출해 작업 리스트를 수정한다. 비적응형 에이전트는 RepairTasksIfNeeded 가 반환한 수정 리스트가 원본과 다를 경우 즉시 계획을 포기하고 빈 플랜을 반환한다. 반면 적응형 에이전트는 수정된 리스트를 그대로 재귀 호출에 넘겨 새로운 계획을 탐색한다.

실험 설계는 두 개의 동적 환경을 사용한다. O‑RESCHU는 다중 UAV가 적색 위험 구역을 회피하며 에너지 소비를 최소화하도록 하는 시뮬레이션이며, MONSTER는 게임 NPC가 플레이어와 상호작용하면서 성격‑기반 D(예: “절대 공격받지 않음”)를 준수하도록 설계되었다. 실험 결과, 적응형 에이전트는 비적응형 및 순응형(Compliant) 에이전트에 비해 목표 달성률이 현저히 높았으며, 세 종류 모두 D 위반을 전혀 발생시키지 않았다. 이는 R‑HTN이 온라인 환경에서 실시간으로 상태 변화를 감지하고, 필요 시 계획을 재구성함으로써 안전·성격 제약을 만족시킬 수 있음을 입증한다.

이 논문의 주요 공헌은 (1) D라는 제약 함수를 HTN와 결합한 형식적 정의, (2) 즉시·예측·수정 불일치를 구분한 체계적 분류, (3) 온라인 실행 중에 동적으로 계획을 수정하는 알고리즘적 프레임워크, (4) 두 가지 실험 도메인을 통한 실증적 검증이다. 특히, “반항”이라는 개념을 계획 시스템에 도입함으로써, 전통적인 ‘사용자 명령 무조건 수행’ 패러다임을 넘어, 안전·윤리·성격 기반의 자율성을 부여하는 새로운 연구 방향을 제시한다. 향후 연구에서는 D 의 자동 학습·추론, 다중 에이전트 협업 상황에서의 충돌 해결, 그리고 실제 로봇·게임 엔진에의 적용 가능성을 탐색할 여지가 있다.


댓글 및 학술 토론

Loading comments...

의견 남기기