인공지능의 감성 지능 평가 프레임워크: HeartBench

대형 언어 모델(LLMs)은 인지와 추론 벤치마크에서 놀라운 성과를 보였지만, 복잡한 사회적, 정서적, 윤리적 미묘함을 이해하는 인간 유사 지능에 대한 부족함이 여전히 존재한다. 이 격차는 특히 중국어 언어와 문화 맥락에서 전문적인 평가 프레임워크와 고품질 사회정서 데이터의 부재로 인해 더욱 두드러진다. 이러한 제한점을 해결하기 위해, 우리는 HeartBe

인공지능의 감성 지능 평가 프레임워크: HeartBench

초록

대형 언어 모델(LLMs)은 인지와 추론 벤치마크에서 놀라운 성과를 보였지만, 복잡한 사회적, 정서적, 윤리적 미묘함을 이해하는 인간 유사 지능에 대한 부족함이 여전히 존재한다. 이 격차는 특히 중국어 언어와 문화 맥락에서 전문적인 평가 프레임워크와 고품질 사회정서 데이터의 부재로 인해 더욱 두드러진다. 이러한 제한점을 해결하기 위해, 우리는 HeartBench를 제시한다. 이는 중국어 LLM들의 통합된 정서적, 문화적, 윤리적 차원을 평가하는 프레임워크이다. 심리 상담 시나리오와 임상 전문가들과의 협업을 기반으로 구성되어 있으며, 5개 주요 차원과 15개 하위 능력을 포함한 이론 중심 분류 체계를 통해 구조화된다. 우리의 평가는 추상적인 인간 유사 특성을 세분화된 측정 가능한 기준으로 번역하는 “추론-후-점수” 평가 프로토콜을 사용한다. 13개의 최신 LLM에 대한 평가 결과는 전문가 정의 이상 점수의 60%만 달성하고 있음을 보여주며, 특히 미묘한 감정 서사와 복잡한 윤리적 상황에서 성능이 크게 저하됨을 분석한다. HeartBench는 인간 유사 AI 평가에 대한 표준화된 메트릭을 설정하며, 고품질 인간-연관 훈련 데이터를 구축하는 방법론적 청사진을 제공한다.

상세 요약

이 논문은 대형 언어 모델(LLMs)의 한계와 그 해결책에 초점을 맞추고 있다. 특히, LLMs가 사회적, 정서적, 윤리적 미묘함을 이해하는 데 어려움을 겪는다는 점을 강조한다. 이 문제는 중국어 문화와 언어 맥락에서 더욱 두드러지며, 이를 해결하기 위해 HeartBench라는 새로운 평가 프레임워크를 제시하고 있다.

HeartBench는 심리 상담 시나리오와 임상 전문가들의 협업을 통해 개발되었으며, 5개 주요 차원과 그 하위 능력으로 구성된 이론 중심 분류 체계를 기반으로 한다. 이를 통해 추상적인 인간 유사 특성을 세분화된 측정 가능한 기준으로 번역하는 “추론-후-점수” 평가 프로토콜을 사용한다.

13개의 최신 LLM에 대한 평가 결과는 전문가 정의 이상 점수의 60%만 달성하고 있음을 보여주며, 특히 미묘한 감정 서사와 복잡한 윤리적 상황에서 성능이 크게 저하됨을 분석한다. 이 연구는 LLMs의 인간 유사 지능 평가에 대한 표준화된 메트릭을 설정하고 고품질 인간-연관 훈련 데이터를 구축하는 방법론적 청사진을 제공함으로써, AI 개발과 평가 분야에서 중요한 발전을 이루고 있다.


📜 논문 원문 (영문)

🚀 1TB 저장소에서 고화질 레이아웃을 불러오는 중입니다...