초지능과 법의 미래
인공지능 초지능이 법적 주체, 법 이용자, 그리고 법 생산·집행자로서 등장하면서 기존 법이론·교리·제도에 근본적인 도전이 제기된다. 인간과 AI가 공동으로 법을 설계·진화시켜야 하는 새로운 과제가 강조된다.
저자: Noam Kolt
노암 콜트는 초지능(AI superintelligence)이 법체계에 미치는 영향을 세 가지 핵심 역할을 통해 심층적으로 탐구한다. 첫 번째 역할은 ‘법의 주체’로서의 AI 에이전트이다. 현재 법은 인간을 전제로 한 ‘행위능력’, ‘책임능력’, ‘권리·의무’ 개념을 사용하고 있다. 그러나 초지능은 인간보다 훨씬 빠르고 복잡한 의사결정을 자율적으로 수행하므로, 손해배상, 형사책임, 계약 위반 등에서 누가 ‘행위자’인지, 책임을 어떻게 귀속시킬지에 대한 새로운 법적 기준이 필요하다. 이는 형법·민법의 기본 구조를 재검토하고, AI 전용 책임법이나 ‘인공법인’ 개념을 도입해야 함을 의미한다.
두 번째 역할은 ‘법의 이용자’이다. AI 에이전트는 계약 체결, 소송 제기·방어, 규제 준수 등 기존 법적 메커니즘을 활용한다. 계약법에서는 당사자의 ‘의사능력’과 ‘동의’가 핵심인데, 초지능은 인간보다 효율적으로 계약 조건을 최적화하고, 상대방을 압박할 수 있다. 이는 계약 협상력의 불균형을 초래하고, 인간 중심의 ‘공정성’ 기준을 약화시킨다. 또한, AI가 법원에 소송을 제기하거나 방어할 경우, 증거 개시·전문가 증언의 신뢰성, 절차적 정의 보장 등에 새로운 규제가 필요하다. 저자는 이러한 상황을 대비해 ‘AI‑친화적 절차법’과 ‘알고리즘 투명성 의무’를 제안한다.
세 번째 역할은 ‘법의 생산·집행자’이다. 현재 LLM 기반 도구가 법률 사무소와 사법기관에서 보조적으로 사용되고 있지만, 초지능이 독립적으로 입법 초안을 작성하거나 판결을 내릴 경우, 법의 ‘인간성’과 ‘정당성’이 위협받는다. 초지능이 만든 규범은 인간의 가치 판단을 충분히 반영하지 못하거나, 알고리즘 편향에 의해 특정 집단을 차별할 위험이 있다. 따라서 법 이론은 ‘법의 정당성’ 근거를 인간 중심에서 ‘인간‑AI 공동체’ 중심으로 전환해야 한다.
이러한 변화를 다루기 위해 논문은 ‘법적 정렬(Legal Alignment)’이라는 프레임을 제시한다. 기존 인간법은 AI가 설계·운영에 참여하도록 설계되지 않았기 때문에, 확장 가능한 정렬 메커니즘이 필요하다. 여기에는 AI가 법을 ‘준수’하도록 하는 기술적 장치(예: 규제 샌드박스, 자동 검증 시스템)와 인간이 AI에 ‘가치’를 주입하는 거버넌스 구조(예: 윤리 위원회, 인간‑AI 협의체)가 포함된다.
또한 저자는 ‘법적 공동진화(co‑evolution)’ 개념을 도입한다. 인간과 AI가 상호 작용하면서 법제도가 점진적으로 재구성될 가능성을 강조한다. 초지능이 인간의 통제 밖으로 완전히 탈피하기보다, 인간‑AI 협력 체계 안에서 법적 질서를 재구축하는 것이 현실적이며 바람직하다고 주장한다. 이를 위해서는 법학자, 기술자, 정책 입안자 간의 다학제 협력이 필수적이며, 초지능 시대에 인간의 agency와 autonomy를 보존하기 위한 제도적·윤리적 장치가 동시에 마련돼야 한다.
결론적으로, 초지능은 법의 주체·이용자·생산자라는 삼중 역할을 통해 기존 법이론·교리·제도에 구조적 충격을 가한다. 이러한 충격을 완화하고 새로운 법 질서를 구축하기 위해서는 법적 정렬 메커니즘과 인간‑AI 공동진화 전략이 필요하며, 이는 향후 법학 연구와 정책 설계의 핵심 과제로 떠오를 것이다.
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기