- Title: Big AI is accelerating the metacrisis What can we do?
- ArXiv ID: 2512.24863
- 발행일: 2025-12-31
- 저자: Steven Bird
📝 초록
(이 논문은 대규모 언어 모델(LLM)과 생성형 AI가 초래하는 다양한 위기와 문제를 탐구하고, 이 기술들이 인류의 공통 생활에 미치는 영향을 분석한다. 특히, 환경위기, 의미 위기, 그리고 언어 위기에 중점을 두며, 이러한 위기가 서로 어떻게 상호작용하는지 살펴본다.)
💡 논문 해설
1. **이 논문의 주요 기여물**:
- 대규모 언어 모델(LLM)과 생성형 AI가 초래하는 세 가지 위기(환경위기, 의미 위기, 언어 위기)를 분석하고 이를 서로 연결한다.
- 산업계와 학계에서 LLM의 문제점을 논할 수 있는 보호된 공간을 설정해야 함을 주장하며, 이는 기술 발전과 사회적 책임 사이의 균형을 맞추는데 중요하다.
- 언어기술이 인류가 지구 생태계를 유지하는 데 중요한 역할을 할 수 있음을 강조하고, 이를 위해 언어공학자들이 가치와 정치성을 인식해야 함을 제안한다.
간단한 설명과 비유:
이 논문은 대규모 언어 모델이 환경과 사회에 미치는 부정적 영향을 ‘악마가 숲을 파괴하는 것’처럼 묘사하며, 이를 해결하기 위해 보호구역을 설정해야 함을 주장한다.
또한, LLM의 문제점을 논할 수 있는 안전한 공간이 필요하다고 주장하며, 이를 ‘병원에서 의사들이 환자 건강을 토론하는 방’에 비유한다.
Sci-Tube 스타일 스크립트:
“안녕하세요, 오늘은 대규모 언어 모델(LLM)이 인류와 지구 생태계에 미치는 영향을 살펴보겠습니다. 첫 번째로, LLM은 데이터 센터를 운영하면서 환경에 큰 부담을 주고 있습니다. 두 번째로, LLM은 사회적 의미를 훼손하며, 이는 진실과 의미의 위기로 이어질 수 있습니다. 마지막으로, LLM은 소수 언어 공동체에게 심각한 영향을 미치며, 이를 해결하기 위해서는 보다 공정하고 책임감 있는 접근이 필요합니다.”
📄 논문 발췌 (ArXiv Source)
# 서론
대규모 언어 모델(LLM)과 생성형 AI는 “매우 흥미로운 소스”가 되었으며, 이는 “가상 영역에 대한 과장된 이론들”을 초래했다. 이러한 기술은 새로운 “지식, 건강, 문화, 사회 복리의 발전으로 정의되는 인공지능 시대”를 가져왔지만, 동시에 “우리 정보 생태계에서 잠재적 핵 폭격과 같은 영향을 미치는 AI 골드 러시”가 되었다.
“빅 AI” – 기업들, 국가 차지, “AI로 판매되는 다양한 종류의 자동화” – 은 전 세계적인 위기를 더욱 악화시키고 있으며, 이 위기들은 이제 팁 포인트에 도달했다. 지구의 9개 생태계 경계 중 6개가 초과되었다. 생태계 붕괴, 경제적 붕괴, 그리고 지정학적 붕괴의 진실한 가능성이 있다. 빅 AI는 이 시스템을 더욱 가속화하면서 스스로를 연료로 삼고 있다. 빅 AI는 메타위기를 가속화하고 있다 (cf. Fig. 1).
우리 전문 단체인 언어 계산 협회(ACL)는 아마도 LLM 연구의 가장 큰 출판사일 것이다. 저자들은 그들의 작업이 ACL 윤리 코드에 준수하는지 보장해야 하며, “공공의 이익이 최우선 고려 사항"이라는 것을 이해하고 있다. 그럼 우리는 어떻게 우리의 전문적인 의무와 우리가 창조한 기술로 인해 발생하는 피해를 조화시킬 수 있을까?
말하기는 ACL 코드를 진지하게 받아들이는 것이다. 하지만 이 문서의 이전 버전은 세 번이나 ACL 행사에서 거절당했다: 비경험적! 논란을 불러일으키기! 제너레이티브 AI를 과소평가! 정치 선전! 사실이 토론되지 않았다. 진실에 문제가 있는 것이 아니라 진실-표현에 문제가 있다는 것 같다. 친절한 사람들이 나에게 비판하지 말고 참여하라고 충고하며, 이 인공지능 주도의 미래는 불가피하다고 말했다.
빅 AI, 메타위기, 그리고 기술적 페두얼리즘
언어가 중요하다는 것에는 모두 동의한다. 하지만 시퀀스 데이터로 보는 언어가 아니라 인간이 공통 생활을 유지하는 데 가장 중요한 기술인 언어를 말이다. AI는 거대한 LLMs가 오염된 데이터 센터에서 실행되는 것이 아니라 사회를 키우고, 인간 네트워크의 지수적인 가능성들을 증폭시키는 것을 통해 확장된다.
위에 나온 내용은 개인을 탓하는 것이 아니다. “우리는 모두 공모했다. 우리는 ‘시장’이 우리가 가치있게 여기는 것들을 정의하도록 허용했으며, 다시 정의된 공동체의 이익이 사치스러운 생활 방식에 의존하면서 판매자들에게 부를 불어넣고 영혼과 지구를 가난하게 만든다” . 뛰어난 언어 엔지니어들은 공공 재화인 코퍼스를 개인적인 재화인 LLMs로 전환하는 구조에 모집되었으며, 속임수, 착취, 도둑질을 통해 지식과 행동을 추출하고 있다. 우리는 어떻게 대신 공공의 이익을 최우선으로 하는 전문가로서 운영해야 할까?
위기의 연쇄작용
LLMs는 세 가지 위기에 참여한다.
LLMs와 관련하여 특히 중요한 세 가지 위기가 있다: 우리 자연 보호; 우리의 공동체의 건강; 그리고 우리의 문화의 다양성. 각각을 차례로 살펴본다.
환경위기:
세계는 기후, 오염, 생물 다양성에 대한 위기를 경험하고 있으며, 이는 열파, 돌발 홍수, 가뭄 및 삼림 화재와 연결되어 있다. 여기에 빅 AI의 데이터 센터는 과도한 온실가스 배출, 물 사용량, 전자 폐기물, 그리고 중대한 광물 사용을 추가한다. 사회 붕괴는 다음과 같은 이유로 가능한 결과이다: 복잡성을 더하는 사회 구조에서 얻는 수익률이 감소; 환경적 변동성이 적응의 한계를 넘어서는 가능성; 위험이 복잡한 시스템을 통해 전파되는 방식.
의미위기:
빅 AI의 주의 경제는 소셜 미디어 중독과 연결되어 있다. LLMs는 유해한 분류를 계속한다. LLM은 비판적 사고, 지식 다양성, 그리고 민주주의를 약화시킨다. LLMs는 거짓 뉴스, 교육, 의료를 생성하여 진실이나 사회 규범에 접근하지 못하게 한다. 결과적으로 이는 진리와 의미의 위기를 초래한다.
언어위기:
소수 언어 공동체들은 경제적 및 문화적 고립, 박탈, 그리고 학살을 경험하고 있어 언어가 멸종될 수 있다. 문제는 사회 정치적이며 언어 기술로는 해결할 수 없다. 이들의 인식적 피해는 다음과 같이 나타난다: (a) 세계의 대부분 인구는 여러 가지 접촉 언어를 사용하여 정보 접근과 경제 참여에 참여하고 있으며, (b) 세계에서 가장 많은 인구가 아닌 90%의 언어는 일반적으로 경계가 없고 동질적이지 않으며 기록되지 않고 표준화되어 있지 않다.
LLMs가 위기 상호작용을 증폭한다
환경위기 $`\leftrightarrow`$ 의미위기:
환경 위기가 LLM 콘텐츠를 통해 생태학적 불안감을 활용하여 주의를 끄는 경우, 그리고 도무crolling이 생태학적 불안감을 마비시키는 경우에는 의미 위기를 피드백한다. 반대 방향으로, 소셜 미디어에서 LLM 콘텐츠가 기능과 무관심성을 마약화하여 공동체들이 환경위기 앞에서 단결하는 것을 어렵게 만든다.
의미위기 $`\leftrightarrow`$ 언어위기:
의미 위기는 주목을 끄는 LLM 콘텐츠가 지배적인 언어로 지역 언어를 밀어내고, 주목력이 지역 생활세계에서 참여하지 않는 것을 초래하는 경우에 언어 위기를 피드백한다. 반대 방향으로, 언어 손실은 장로들의 위치를 해치고, 지식 전달을 방해하며, 행복감과 인지능력을 떨어뜨린다. 데이터의 자유롭게 이용은 원주민(및 인간) 주권을 침해하고 두 위기를 부추긴다.
언어위기 $`\leftrightarrow`$ 환경위기:
언어 위기는 원주민 커뮤니티가 생물 다양성이 풍부한 전설적인 조상 땅을 관리하는 능력을 약화시키는 경우에 환경 위기를 피드백한다. 그리고 이를 통해 인간의 행복을 위한 자원인 의학 지식의 손실이 가속화된다. 반대 방향으로, 데이터 센터로 인해 강화된 광산과 기후 재난은 사람들이 땅에서 이주하게 만들며, 기후 변화와 팬데믹은 언어 공동체를 줄이고 생태계 다양성의 손실은 식물과 동물 종에 의존하는 문화를 해친다.
메타위기:
세계의 위기는 상호 연결된 시스템으로 구성되어 있으며, “복잡한 시스템을 통합하고 다양한 여러 계층의 위기를 연결"하는 것이라 불리며 메타위기에 이른다. 여기서 보여지는 대로 빅 AI, 그 LLMs, 그리고 데이터 센터 모두 관련이 있다. 또한, 빅 AI는 AI 과열 현상으로 인해 스스로를 가속화한다.
결론적으로, 빅 AI는 메타위기를 가속화하고 있다.
진지한 평가
빅 AI는 스스로를 통제하지 않을 것이다
빅 AI의 윤리에 대한 관심은 규제 감독을 최소화하기 위한 기능이며, “디자인 결정, 관례, 그리고 권력 사이의 얽힌 동적 현상의 상호관계 결과”로 정부와 학계를 형성한다 (cf. Figure 1). 빅 AI는 “양적 공정 개념이 우리의 사고를 좁은 틀로 이끌어” 더 많은 AI를 통해 AI의 윤리 문제를 해결하려 한다. 그리고 이는 가상 세계에서 법의 규제 부재라는 파괴적인 결과를 초래한다.
정치 동기의 “필ант로피”와 윤리 세척은 규제가 없는 공간을 유지하는 데 기능하며, “알고리즘 통치의 환영"이라고 알려져 있다. 이는 “규제 해소, 자율 규제 또는 시장 주도의 통치를 정당화하기 위한 겉모습”이다. 빅 AI는 공공 안전보다 돈을 버는 것을 우선시한다. “경제 성장을 추구하고 개인의 복지와 덜 불평등한 사회를 위해 조절해야 한다는 생각은 경제 자유주의의 선두에 있는 사람들에게 환영받지 못한다.”
많은 빅 AI 규제 이니셔티브가 있지만 “Gen-AI의 사회적 및 환경적 영향을 완전히 특성화하는 것은 복잡하고 대상 규제를 방해한다.” “이러한 AI 윤리 프레임워크를 실천에 구현하여 AI 개발과 통치에서 지나친 권력을 가진 사람들의 행동을 제약하는 것은 결코 쉽지 않을 것이다.” 이는 시도하지 않는 이유가 아니다.
이익은 피해를 정당화하지 않는다
결과주의적 순간에는 빅 AI의 다양한 피해(§2)를 고려해도 그 거창한 약속들 때문에 이를 무시할 수 있을 것이다. “빈곤을 없애고 지속 가능한 도시와 커뮤니티를 구축하고 모든 사람에게 양질의 교육을 제공"하는 것 등이다. 이러한 이익들을 기다리면서, 과학의 질을 고려해 볼 수 있다.
시퀀스 모델은 자연 언어에서 매우 멀리 떨어져 있으며, 대부분의 작업은 표면적이며 유행에 따른 것이다. SOTA 추적과 무한한 “숫자 테이블” 등이 그렇다. 편향성은 “그것을 고치려는 버그처럼 이해하는 대신 분류 자체의 특징"이다. 행동자들은 “기술적인 혁신을 모든 것보다 더 소중하게 여기며, 남들보다 높은 목소리를 내고 백인 중심이며 기술적 영웅"이다. AI는 지구 상의 대부분 사람들에게 작동하거나 도움이 되지 않는다.
SOTA 툴에 접근할 수 있는 연구자들은 극히 소수이며, 지수적으로 더 많은 자원을 사용해도 성능은 선형적인 증가만 한다. 검토 과정에서 산업의 “연구"는 회사의 명성을 높이기 위해 학회 출판물의 위상을 활용한다. 다양한 피해(§2)에도 불구하고, LLM 연구는 학술적 인정을 받는다. 빅 AI는 “공정성, 책임성 및 투명성을 위한 주요 회의를 창조하는 것"에 스스로 사용하는 인공 지능을 규제하기 위해 “Google, Facebook, Microsoft”가 후원한다. 이는 대형 담배 회사의 전략과 똑같다.
확장성 이야기는 신화이다
기후 재앙에 직면한 행성이 데이터 센터를 계속 성장시키지 못한다. AI 안전은 본질적으로 확장 불가능하며, 따라서 우리는 감시 시스템 위에 규제 레일을 설치하는 무용한 노력에서 와카-모렐 게임을 계속한다. 빅 AI의 더러운 비밀은 “AI의 숨겨진 아웃포스트"에 위치한 주석 작업장이다. “AI가 저렴하고 효율적이라는 신화는 대량의 무보수 노동을 뽑아내어 지구상에서 가장 부유한 회사들의 AI 시스템을 세련시키는 착취 계층에 의존한다.”
절망은 옵션이 아니다
절망하기 쉽다. 오랜 기간 동안 예상되었던 NLP의 진전이 이런 식으로 진행되지는 않았다. 그러나 “복원은 절망에 대한 강력한 치유제이다. 복원은 인간들이 다시 긍정적이고 창조적인 관계를 맺을 수 있는 구체적인 방법을 제공하며, 그 책임들은 동시에 물질적이고 영적인 것이다. 슬퍼하는 것만으로는 충분하지 않다. 나쁜 일을 그만두는 것만으로도 충분하지 않다” .
우리는 무엇을 할 수 있을까?
1. 공공의 이익이 최우선 고려 사항.
ACL 코드는 단순히 우리의 출판물뿐만 아니라 회원들의 행동에 적용된다. “누군가 다른 사람이 그것을 하겠지” (기술적 필연성 신화; ), “내 기여는 큰 기계 속에서 작은 톱니바퀴일 뿐이다” (많은 손의 문제; ), 또는 “나의 작업은 세계를 연결하는 좋은 일” (보편적인 기술 아트팩트가 사회적 문제를 해결한다는 신화; )이라고 주장하는 것은 충분하지 않다.
메타위기(§2)에 직면해 있을 때, 우리의 시대의 큰 도전은 “우리 앞에 있는 영향력 있는 지역부터 시작해서 우리 사회를 재건하는 것”이다. 이는 근본적으로 공동 활동이다: “우리 모두의 번영은 상호 연결되어 있다” .
2. NLP/ACL을 기업 통제로부터 보호.
빅 AI 후원으로 사람들에게 SOTA 기여의 불균형적인 기회가 있음을 해결해야 한다. 또한 ACL의 공공의 이익 원칙이 “AI를 비밀로 유지하고, 사기업에 부를 일으키는 상업적 제품"으로 이해하는 행동자와 일치하지 않음을 인정해야 한다.
빅 AI가 우리의 전문 단체를 후원하거나 빅 AI 직원들이 관리직을 맡는 경우 실제 또는 인식되는 이익 충돌이 있다. 이러한 충돌은 우리가 “사업을 운영하고 있는 사람들과 독립적인 편집 계층 사이의 내부 전투"를 탐색하면서 선언되고 관리되어야 한다.
3. 실제 자연어 처리를 촉진한다.
ACL은 논문 요청에서 계산 언어학의 범위를 재정립하고, 자연 인간 언어에 중점을 둘 자유가 있으며, 평가 “을 변화를 일으키는 힘"으로 사용할 수 있다.
4. 비판적 NLP를 위한 보호 공간 설정.
검토 과정은 지배적인 관점에서 벗어나는 학술 기여가 단순히 지배적인 상태에 도전하려고 한다는 이유로 거절되지 않도록 해야 한다. 이는 권력 동태와 불의에 대한 연구를 포함하며, 사상적으로 안전한 기여를 지키려는 검토자의 저항을 겪을 수 있다.
5. 생명 유지 연구를 위한 비전 제시.
인류가 살아가는 행성에서 언어 기술의 비전은 무엇인가? 새로운 회의 주제, 워크샵 및 저널 특별 호는 시작일 뿐이다. 그러나 나는 데이터 페미니즘의 원칙; 정보 위기 해결을 위한 10 가지 계획; 커뮤니티 중심 접근법; 카레 시민 윤리; 해체 방법론; Bender의 인간화 저항 제안; Sen의 능력 접근법 등을 홍보해야 한다. 언어 엔지니어는 그들의 작업의 정치적이고 가치 지향적인 성격을 인식해야 한다.
6. 공개성명 및 정책으로 리더십 발휘.
LLMs의 피해와 공공의 이익을 이해하는 필요성을 고려할 때, ACL은 정보 제공 성명과 정책 위치를 개발하여 ACL 목표 “세계 각국의 재단 및 정부 기관에 계산 언어학을 대변"하고 “일반 대중에게 계산 언어학에 대한 정보를 제공"해야 한다.
7. 인식 및 가치의 근본적인 변화.
활동하기는 어렵지만 “깊이 있는 가치와 자신과 세상을 보는 방식으로 키워지는 것”에서 가능하다. 그때만 사회적 문제를 보편적인 기술로 활용하는 것을 멈추고, 기술적 페두얼리즘과 “AI 무기 경쟁"에 저항하며, 효율성 추구 대신 “자치, 창의성, 윤리, 느림, 신중함”을, 빼앗는 생각보다 풍부한 지성을, 그리고 자연 언어를 인류가 공통 생활을 유지하는 데 가장 중요한 기술로 받아들일 수 있다.