미래 AI 시대 미국의 ‘제한 전략’—신뢰 구축을 위한 정책 설계
초록
이 논문은 미국이 강력한 인공지능(AI) 기술을 보유하게 되더라도, 적대 국가들에게 ‘제한(Restraint)’ 의지를 신뢰시키는 전략을 제시한다. 국제관계 이론의 ‘신뢰 가능한 약속(credible commitment)’ 개념을 차용해 비용이 큰 신호와 ‘전면 차단(foreclosure)’ 보장을 결합한 정책 옵션을 제시하고, 실현 가능성·제약·추가 연구 과제를 논의한다.
상세 분석
논문은 먼저 미국이 AI 분야에서 선도적 위치를 차지할 경우, ‘AI‑enabled decisive strategic advantage(DSA)’라는 개념을 통해 적대 국가들이 미국을 제압하려는 ‘예방 전쟁(preventive war)’을 선택할 위험을 강조한다. 여기서 핵심은 적들이 미국의 ‘트램플링(trampling)’ 가능성을 어떻게 인식하느냐이며, 이는 기술적 가능성 자체보다 인식된 위협이 더 큰 역할을 한다는 점이다. 저자는 이를 완화하기 위해 ‘제한(Restraint)’ 전략을 제안한다. 제한은 “미국이 강력한 AI를 보유하더라도 적을 존재 자체 위협으로 삼지 않겠다”는 선언을 신뢰성 있게 전달하는 과정이다.
신뢰성 확보를 위한 두 축은 ‘비용이 큰 신호(costly signals)’와 ‘전면 차단 보장(foreclosure guarantees)’이다. 비용이 큰 신호는 현재와 미래의 상황 모두에 적용될 수 있는 ‘비용 구조’를 설계함으로써, 미국이 트램플링을 선택하면 막대한 정치·경제·군사적 비용을 감수해야 함을 보여준다. 여기에는 ‘시도 손(tying hands)’, ‘잠재 비용(sunk costs)’, ‘분할 비용(installment costs)’, ‘감소 가능한 비용(reducible costs)’ 등 네 가지 비용 유형이 제시된다. 각각은 신호의 정보적 효과와 인센티브 변형 효과를 동시에 목표로 한다.
전면 차단 보장은 미국이 기술적·제도적 장치를 통해 특정 공격적 행동을 물리적으로 불가능하게 만드는 접근이다. 예를 들어, AI 모델에 ‘주권(sovereignty)’ 조항을 내재화하거나, 하드웨어 수준에서 특정 위험 능력을 차단하는 메커니즘을 도입한다. 또한, ‘특수 접근 프로그램(special access programs)’이나 ‘전쟁 전력(war powers)’의 제한적 사용을 제도화해, 내부적으로도 트램플링 옵션을 억제한다.
논문은 구현 단계에서 ‘외교(diplomacy)’, ‘AI 시스템 개입(interventions on AI systems)’, ‘제도 설계(institutional design)’를 구체적 정책 수단으로 제시한다. 외교적 차원에서는 투명성 협정, 공동 연구 프레임워크, 신뢰 구축 조치를 통해 국제사회에 제한 의지를 신호한다. 시스템 차원에서는 모델 사양에 ‘주권 보호’ 조항을 삽입하고, 위험 능력을 가진 AI의 물리적 배포를 차단하는 하드웨어 잠금장치를 개발한다. 제도적 차원에서는 인력 배치, 내부 사용 절차, 특수 접근 프로그램, 전쟁 전력 제한 등을 통해 조직 내부의 ‘제한 비용’을 제도화한다.
가장 도전적인 시나리오는 미국이 단독으로 강력한 AI를 확보하고, 이를 통해 DSA를 실현할 확실한 상황이다. 이 경우 비용이 큰 신호만으로는 충분히 신뢰성을 확보하기 어렵다. 저자는 ‘비용·정책·기술’이 결합된 복합 접근을 제안한다. 예를 들어, 대규모 국제 감시 체계와 연계된 ‘에스크로(escrow) 메커니즘’, ‘활성 방패(active shields)’, ‘자동 약화(automatic degradation)’와 같은 미래형 기술을 도입해, 미국이 DSA를 실제로 활용하려 할 경우 자동으로 능력이 제한되도록 설계한다.
마지막으로 논문은 향후 연구 과제로 (1) 비용 신호의 정량적 모델링, (2) 전면 차단 메커니즘의 기술적 실현 가능성 검증, (3) 국제 협력 체계와 법적 구조의 설계, (4) 적대 국가들의 인식 변화와 신뢰 구축 효과 측정 등을 제시한다. 전체적으로 이 논문은 AI 경쟁 구도에서 ‘위협이 아닌 신뢰’를 기반으로 전략적 안정성을 확보하려는 새로운 정책 패러다임을 제시한다.
댓글 및 학술 토론
Loading comments...
의견 남기기