이 논문에서는 대형 언어 모델(LLM) 에이전트가 샘플링된 텍스트 문서에서 인과 피드백 퍼지인지도(FCM)를 어떻게 성장시키는지를 보여줍니다. 이 FCM은 지역적인 부분적 인과 규칙을 형성하고, 이를 통해 전역 균형 상태인 한계 주기를 정의합니다. 이러한 방법은 프로그래밍된 명령에 의존하는 일반적인 피드포워드 에이전트 시스템과는 달리 FCM 동적 시스템의 에이전시를 진화하는 균형 한계 주기에서 찾습니다.
💡 논문 해설
1. **주요 기여 1**: 이 논문은 대형 언어 모델(LLM)을 사용하여 텍스트로부터 퍼지인지도(FCM)를 추출하는 방법을 제시합니다. FCM은 복잡한 인과관계를 간단하게 이해할 수 있는 그래프로 표현하며, 이는 마치 지도에서 길을 찾듯이 텍스트의 의미와 연결성을 파악하는 데 도움이 됩니다.
2. **주요 기여 2**: LLM은 자동으로 텍스트에서 중요한 단어를 찾아 FCM 노드로 변환하고, 이들 노드 간의 인과관계를 추출합니다. 이를 통해 시스템은 스스로 학습하여 복잡한 문제를 해결하는 능력을 갖추게 됩니다.
3. **주요 기여 3**: 논문에서 제시된 방법론은 텍스트의 내용을 자동으로 분석하고, 이를 FCM으로 변환하여 시스템의 동적 변화와 균형 상태를 예측하는 데 사용합니다.
Sci-Tube 스타일 스크립트
레벨 1 (초보자): 이 논문은 큰 언어 모델을 이용해 텍스트에서 중요한 정보를 추출하고, 이를 그래프로 변환하여 이해하기 쉽게 만드는 방법을 설명합니다. 마치 지도에서 길을 찾듯이, 우리는 복잡한 텍스트에서도 핵심 내용을 간단하게 파악할 수 있습니다.
레벨 2 (중급자): 이 논문은 언어 모델이 어떻게 텍스트를 분석하여 인과관계를 파악하고 이를 그래프로 표현하는지 설명합니다. 이러한 방법으로 우리는 복잡한 시스템의 동적 변화와 균형 상태를 예측할 수 있습니다.
레벨 3 (고급자): 이 논문은 LLM을 이용해 텍스트에서 FCM을 추출하고, 이를 통해 시스템의 인과관계와 동적 변화를 분석하는 방법을 제시합니다. 이러한 접근법은 복잡한 문제 해결에 있어 중요한 도구가 될 수 있습니다.
📄 논문 발췌 (ArXiv Source)
# 에이전트 레시: 텍스트에서 성장하는 모호한 인지 지도 동적 시스템
우리는 어떻게 대형 언어 모델(LLM) 에이전트를 통해 샘플링된 문서에서 인과 피드백 퍼지인지도(FCM)가 성장하는지를 보여줍니다.
이 FCM 피드백 동적 시스템은 샘플링된 문서들로부터 지역적인 부분적 인과 규칙을 형성합니다. 이러한 지역적 인과 구조는 다시 전역 균형 한계 주기를 정의하며, 이는 인과 질문에 대한 장면 같은 답변으로 사용됩니다. 또한 FCM 동적 시스템의 에이전시 자체의 출처를 정의합니다 - 진화하는 균형 한계 주기입니다. 이것은 프로그래밍된 명령에만 의존하는 일반적인 피드포워드 에이전트 시스템과 다릅니다. FCM을 혼합하면 풍부한 학습 인과 지식 기반과 더 나은 전역 균형 상태를 제공할 수 있습니다. 추출 과정은 에이전트나 부분적으로 자율적인 것이기 때문에, FCM의 진화하는 전역 균형 상태는 LLM 에이전트에게 추가 텍스트를 가져오고 처리하도록 명령하며, 이는 다시 명령하는 FCM 균형 상태를 변화시킵니다. 관련 작업은 오토인코더와 같은 매핑을 사용하여 FCM을 텍스트로 변환하고 반복 과정을 계속합니다. 이 양방향 과정은 FCM의 LLM 에이전트가 유연한 에이전트 레시에 머무르도록 유지합니다.
style="width:90.0%" />
대형 언어 모델(LLM)은 인공지능의 잠재력을 다룬HENRY KISSINGER 및 동료들의 월스트리트 저널 기사에서 인과 변수와 그들 간의 인과 관계를 추출하고, 이로 부터 퍼지인지도(FCM)를 생성합니다. 이 도표는 전체 15개 노드 중 5개 노드와 이를 연결하는 방향성 가중치 변환을 보여줍니다. 양의 변환은 파란색으로 표시되고 음의 변환은 빨간색으로 표시됩니다. 그림은 FCM의 여러 피드백 루프 중 하나를 초록색으로 강조합니다. 이 경우: 인간 인지의 성장이 인간-인공지능 상호작용을 증가시키지만, 인간-인공지능 상호작용의 증가는 다시 인간 인지를 감소시킵니다. style="width:90.0%" />
HENRY KISSINGER 등이 쓴 "ChatGPT가 지적인 혁명을 예고하다"라는 제목의 월스트리트 저널 기사에서 LLM에 의해 추출된 15노드 FCM입니다. 이 FCM은 4단계 한계 주기로 수렴합니다. 한계 주기는 인공지능의 성장이 파동이나 순환으로 온다는 예측을 합니다. 첫 번째 단계에서는 생성적 AI가 널리 사용되고 인간-인공지능 상호작용과 인간 지식이 증가합니다. 이는 두 번째 단계에서 리더들이 윤리적으로 통치하는 데 도움이 되지만 위험과 위협도 동반됩니다. 세 번째 단계에서는 사람들이 신비롭고 불확실한 인공지능을 신뢰하고 오해와 거짓말이 퍼져 사회가 변화하지만 동시에 교육은 향상되고 과학적 발견으로 이어집니다. 네 번째 단계에서는 다시 생성적 AI가 널리 사용되지만 이번에는 윤리적인 리더십 없이, 다시 사회가 변합니다. />
텍스트에서 FCM 추출: LLM 에이전트는 텍스트 입력을 통해 세 단계의 체계적인 과정으로 FCM 노드와 변환을 추출합니다. 이 과정은 동일한 LLM 에이전트를 사용하고 지도 시스템 명령을 따릅니다. 첫 번째 단계에서는 텍스트에서 모든 명사와 명사구를 추출합니다. 두 번째 단계에서는 첫 번째 단계의 명사 목록에서 FCM 노드를 추출합니다. 이를 위해 첫 번째 단계의 명사 목록을 정성적 또는 정량적인 측정과 인과 관계의 존재에 따라 세분화합니다. 세 번째 단계에서는 노드 페어 목록으로부터 부호화된 가중 변환을 추출하여 FCM을 완성합니다.
그림 1은 그림 2의 완전한 15노드 FCM에 대한 피드백 인과 하위 네트워크를 보여줍니다. LLM 에이전트는HENRY KISSINGER 등이 쓴 월스트리트 저널 기사 “ChatGPT가 지적인 혁명을 예고하다”에서 완전한 FCM을 성장시켰습니다. 초록색 강조 표기는 “인간-인공지능 상호작용"에서 “인간 인지"로 그리고 다시 자신에게 이르는 내장된 피드백 루프 중 하나를 보여줍니다: “인간-인공지능 상호작용” $`\rightarrow`$ “인간 인지”$`\rightarrow`$ “인간-인공지능 상호작용”. 여기서 “$`\rightarrow`$“는 음의 변환을 나타내고, “$`\rightarrow`$“는 양의 변환을 나타냅니다. 심지어 이 작은 5노드 하위 FCM도 무엇이면 어떤 결과가 나오는지를 답변하는 데 사용할 수 있는 균형 한계 주기를 인코딩합니다.
학습된 FCM 지식 그래프에는 지역적인 인과 규칙이 포함되어 있습니다. 이러한 규칙은 즉각적인 지역적 해석 가능성 또는 설명 가능한 AI(XAI)를 제공합니다. 피드백 FCM에 내장되거나 숨겨진 균형 한계 주기 또한 전역적인 XAI를 제공합니다.
주요 문제는 텍스트 기사가 일반적으로 기본 동적 시스템의 인과 변수와 인과 관계를 논하면서도 이 시스템이나 그 동력을 명시적으로 언급하지 않는다는 것입니다. 저자는 주어진 조건 하에서 피드백 인과 규칙 기반 시스템이 어떻게 행동할지 추측해야 할 수 있습니다. 저자나 강연자가 자신의 인과 표현이 비선형 피드백 동적 시스템을 정의한다는 사실조차 알지 못할 수도 있습니다. 또한 저자는 심지어 피드백 구조를 알고 있다 해도 그 시스템의 동력을 볼 수 없거나 저자의 균형 상태 예측을 검증하는 쉬운 방법이 없습니다.
FCM 모델링에 대한 추가 문제는 텍스트를 읽고 시스템의 동적 변화를 정확하게 예측하기 위해 전문가를 고용하는 것이 비싸고 시간이 많이 걸릴 수 있다는 것입니다. 대규모 FCM은 이러한 예측을 할 정도로 복잡할 수도 있습니다. 대형 언어 모델(LLM)은 반면에 텍스트의 본문을 분석하고 사용자의 프롬프트 또는 진화하는 FCM 동적 시스템 자체로부터 주어진 명령을 처리할 수 있습니다.
style="width:85.0%" />
에이전트 LLM의 명사 추출: LLM은 텍스트를 입력으로 받아 그 안에서 나타나는 명사, 명사구 및 대명사를 식별합니다. 오른쪽 도표에서는 추출된 명사와 명사구가 빨간색으로 강조 표시됩니다.
우리는 인간의 감독 없이 텍스트로부터 인과 변수와 그들의 인과 관계를 체계적으로 추출할 수 있는 LLM을 필요로 합니다. 이러한 텍스트에서 추출된 인과 규칙은 텍스트가 동적 변화를 언급하지 않더라도 시스템의 동적 변화를 예측해야 합니다. FCM은 이러한 인과 정보를 가중치 방향성 순환 그래프로 모델링하고 균형 상태로부터 근사하는 인과 FCM의 균형 상태에 대한 질적인 균형 상태 예측을 제공할 수 있습니다.
우리는 LLM 에이전트가 체계적으로 텍스트 본문에서 FCM 노드와 변환을 추출하기 위해 세밀하게 조정된 시스템 명령을 통해 수행하는 방법을 보여줍니다. LLM은 결정의 근거를 텍스트 원본으로부터 인용하여 제공합니다. 이러한 텍스트 앵커는 환각을 줄이는 데도 도움이 됩니다.
style="width:85.0%" />
에이전트 LLM의 FCM 노드 추출: LLM은 명사와 명사구 목록을 입력으로 받아 이들 중 일부 종류의 정성적 또는 정량적 측정과 연관된 것을 필터링합니다. 이를 통해 5개의 FCM 노드 목록이 생성됩니다.
그림 1은 가장 간단한 버전의 FCM 에이전트 설정을 보여줍니다. LLM은HENRY KISSINGER 및 동료들의 월스트리트 저널 기사 “ChatGPT가 지적인 혁명을 예고하다”를 텍스트 입력으로 받아, 이를 통해 추출된 인과 변수와 그들 간의 인과 관계를 식별하고 이러한 규칙을 바탕으로 FCM을 구축합니다. 그림 1은 추출된 FCM에서 15개 노드 중 5개만 보여줍니다.
그림 2는 완전한 FCM을 보여줍니다.
섹션3은 FCM에 대해 설명하고, 어떻게 FCM이 인과 동적 시스템을 모델링하거나 근사하는지 보여줍니다. 이 섹션은 FCM 노드와 변환의 의미를 설명하며, FCM이 이산 시간에서 진화하고 균형 상태로 수렴하는 방법도 설명합니다. 또한 FCM은 연속적인 시간에서도 진화할 수 있습니다.
섹션 4는 동적 시스템을 묘사하는 텍스트 본문에서 FCM을 추출하기 위한 세 단계의 체계적인 과정을 설명합니다. 이 섹션은 텍스트에서 명사를 식별하고, 명사로부터 노드를 추출하며, 노드 쌍으로부터 변환을 추출하는 LLM 에이전트에 대한 3가지 프롬프트를 각각 설명합니다.
그림 3은 이 과정을 보여줍니다.
섹션5는 FCM 추출의 예를 보여줍니다. 그림 4-7은 한 단락의 텍스트 입력에 대한 과정을 보여줍니다.
그림 11는 추출된 FCM과 인간이 생성한 FCM의 한계 주기를 비교합니다. 그림은 두 FCM 모두 동일한 한계 주기에 수렴한다는 것을 보여줍니다.
그림 2는HENRY KISSINGER의 월스트리트 저널 기사에서 추출된 완전한 FCM을 보여줍니다.
그림 19는 저자가 명시적으로 언급하지 않았음에도 불구하고 암시한 한계 주기를 보여줍니다.
그림 21은 동일한 기사에서 추출된 FCM을 같은 가이드 프롬프트를 사용하여 두 가지 다른 LLM 에이전트인 Gemini-2.5 Pro와 ChatGPT-4.1로 혼합합니다. 24노드 혼합 FCM은 두 FCM에 대해 동일한 혼합 가중치를 적용합니다.
그림 20은 두 개의 혼합 구성 요소 FCM에 대한 변환 행렬을 제로 패딩과 볼록 조합으로 혼합합니다.
그림 22은 이 최종 혼합 FCM의 한계 주기를 보여줍니다.
텍스트에서 FCM 추출 및 관련 연구
style="width:85.0%" />
에이전트 LLM의 FCM 변환 추출: LLM은 노드 쌍을 통과하고 인과 연결성을 위한 텍스트 증거를 찾습니다. 이를 통해 FCM은 6개의 인과 변환을 얻습니다.
이 논문에서는 원시 텍스트에서 단순히 텍스트 언어만 사용하여 어떻게 FCM 노드와 변환을 추출하는지 보여줍니다. 라벨이나 애노테이션에 의존하지 않습니다. FCM 노드는 일반적으로 어떤 종류의 정성적 또는 정량적 측정과 연관된 명사나 명사구입니다. 텍스트의 동사는 FCM 인과 변환을 설명합니다. 변환 추출은 직접적인 증거를 제공함으로써 투명하고 해석 가능합니다.
Maryam Berijanian 등이 이전에 LLM을 사용하여 텍스트 소스에서 FCM을 추출했습니다. 그러나 그들은 자신의 LLM을 감독을 통해 학습시키고 “source”, “target”, “direction” 튜플로 텍스트 입력을 애노테이트했습니다. 이를 통해 LLM은 FCM을 추출할 수 있지만, 그것은 FCM 추출의 자동화라는 전체 목적에 역행하며 사람이 텍스트를 읽고 노드를 애노테이트해야 하기 때문입니다.
텍스트에서 FCM 노드를 추출하는 것은 LLM의 명사 인식(NER) 작업과 유사합니다. 여기서 LLM은 텍스트로부터 핵심 정보를 식별하고 사전 정의된 카테고리에 따라 분류합니다. LLM은 언어 속성에 기반하여 텍스트에서 명사를 추출할 수 있습니다. 그러나 텍스트의 모든 명사나 명사구가 FCM 노드로 대응하지는 않습니다. 이를 통해 성장한 FCM은 불가능하게 커지고 정확성이 떨어질 것입니다. 세밀하게 조정된 시스템 명령이 LLM을 유도하여 FCM 노드 속성을 공유하는 명사만 선택하도록 합니다.
무작위 프롬프트는 일반적으로 FCM 추출에 신뢰할 수 없습니다. 그들은 음의 인과 관계와 양의 관계를 구분하는 데 어려움을 겪고, 잘못 가중된 FCM 변환을 제공할 수도 있습니다. 또한 그들은 종종 FCM 변환에 대한 이유를 제공하지 않습니다. 텍스트 자체에서 명시적으로 언급되지 않은 내용을 바탕으로 환각 변환을 생성할 수 있습니다.
우리는 LLM이 체계적인 방식으로 노드와 변환을 선택하도록 강제하는 시스템 명령을 설계합니다. 이 투명한 3단계 과정은 LLM의 모든 결정을 설명하며, 환각의 확률과 범위도 줄입니다. LLM은 텍스트 원본에서 증거를 인용하여 모든 결정을 지원합니다.
style="width:96.0%" />
인간이 생성한 FCM style="width:96.0%" />
한계 주기: 인간이 생성한 FCM style="width:96.0%" />
한계 주기: LLM이 생성한 FCM KISSINGER의 AI 환각 텍스트에서 FCM 추출: (a) 동일한 "AI 환각" 입력 텍스트로부터 인간이 생성한 FCM. (b) 인간이 생성한 FCM의 한계 주기: 시간 단계는 ArXiv 원문 PDF 보기
📊 논문 시각자료 (Figures)
감사의 말씀
이 글의 저작권은 연구하신 과학자분들께 있으며, 인류 문명 발전에 공헌해주신 노고에 감사를 드립니다.