
2025년, AI 기업 앤트로픽은 미 국방부와 약 2억 달러 규모의 계약을 맺고 자사의 AI 모델 '클로드'를 공급했다. 이 계약에는 조건이 붙어 있었다. 완전자율살상무기와 미국 시민 대상 대규모 감시에는 사용하지 않겠다는 제한이었다. 기술의 통제 가능성이 충분히 검증되지 않은 영역에 대해 스스로 선을 긋겠다는 선언이었다.
그러나 협상 과정에서 미 국방부는 이 제한의 철회를 요구했고, 앤트로픽은 대부분의 조건 수정에는 응하면서도 해당 조항만은 끝내 거부했다. 2026년 2월, 행정부는 이 회사를 '공급망 위험' 기업으로 지정하고 연방기관 전반에 사용 중단을 지시했다. 미국 기업이 이 명단에 오른 것은 처음이었다. 주로 외부 적대 세력을 겨냥하던 제도가 자국 기업에 적용된 순간이었다.
지정 방식도 치명적인 결함을 안고 있었다. 국방부는 앤트로픽을 안보 위협으로 규정하면서도 일정 기간 서비스 제공을 유지하도록 했고, 한때는 국방생산법 발동을 통해 기술을 강제 징발하겠다고 압박했다. 위험하다는 기술을 동시에 필요로 하고, 통제하려는 권력이 그 기술을 빼앗겠다고 나서는 이런 장면은 단순한 행정적 혼선이 아니다. 그것은 '공급망 위험'이라는 명분이 실제로는 안보가 아니라 복종을 강요하는 수단이었음을 스스로 드러낸다.
이 사건은 흔히 '기업윤리와 국가권력의 충돌'로 해석된다. 그러나 이러한 프레임은 문제를 지나치게 단순화한다. 더 근본적인 질문은 따로 있다. 우리는 왜 가용 기술의 한계를 기업의 윤리 판단에 맡기고 있는가. 앤트로픽의 선택은 분명 의미가 있다. 그러나 그 경계선은 절대적인 금지가 아니었고 협상의 결과였다. 완전자율이 아닌 무기, 미국 시민이 아닌 대상에 대한 감시, 군사 작전 전반에 대한 기술 지원은 여전히 허용된다. AI는 이미 전쟁과 통치의 다양한 단계에 깊숙이 개입해 있다. 표적 선정을 보조하고, 방대한 정보를 분류하며, 드론 운용의 판단을 지원하는 방식으로 AI는 이미 전장에서 중요하게 사용되고 있다.
이 지점에서 문제의 성격은 더욱 분명해진다. 이번 앤트로픽 사태는 기업의 윤리 문제가 아니라 권력의 배분과 관계되는 사안이다. 무엇을 위험으로 규정할 것인가, 누구를 감시 대상으로 설정할 것인가를 결정하는 권력의 문제와 깊이 연동되어 있다. 그런 의미에서 AI는 더 이상 단순한 도구가 아니라 판단의 조건 자체를 바꾸는 권력의 형식이다. 그렇다면 질문은 다시 정식화되어야 한다. 어느 기업이 더 윤리적인가가 아니라, 왜 우리는 기술의 금지선을 기업의 선택에 맡기고 있는가.
지금의 상황에서 기업이 설정한 윤리는 원칙이 아니라 전략이다. 계약 조항으로 존재하는 윤리는 협상 테이블 위에서 언제든 수정 가능한 조건으로 남는다. 실제로 앤트로픽 사례는 그 취약성을 여실히 보여준다. 국가 권력은 그 선을 압박했고, 기업의 거부 역시 구조적으로는 협상의 일부로 기능했다. 필요한 것은 '윤리적인 기업'이 아니라 윤리를 강제할 수 있는 '제도'다. 어떤 기술은 어떤 조건에서도 허용되지 않는다는 최소한의 금지선, 그리고 그 금지선을 기업과 국가 모두에게 동일하게 적용할 수 있는 규칙이 필요하다. 그것은 선언이 아니라 법과 제도, 감시와 책임의 구조로 구현되어야 한다. 국제 AI 조약이든, 의회 차원의 입법이든, 기업과 정부 양쪽을 동시에 구속할 수 있는 독립적 감독 기구든 그 형태는 열려 있다. 그러나 그것이 기업의 자율적 선언에 머무는 한, 어떤 형태로도 작동하지 않는다는 것만은 분명하다.
기술의 방향은 기술 자체가 아니라 경계를 설정하는 힘에 의해 결정된다. 그 힘이 시장이나 국가 권력의 협상에 맡겨져 있는 한, 금지선은 언제든 흔들릴 것이다. 기술은 누구의 것인가. 그리고 더 정확히 말하면, 기술 사용의 한계를 누가 결정하는가. 우리는 그 경계를 스스로 그을 준비가 되어 있는가.
[이진서]
고석규비평문학관 관장
제6회 코스미안상 수상