2026년 3월 초, 인공지능 기업OpenAI가 미국 국방부와 협력 계약을 체결했다는 사실이 알려지면서 전 세계적으로 예상치 못한 반응이 나타났다. 세계에서 가장 널리 사용되는 인공지능 서비스인 ChatGPT의 삭제율이 단기간에 급증한 것이다. 데이터 분석 업체에 따르면 계약 발표 직후 삭제율이 평소보다 약 세 배 가까이 증가했다.
논란이 커지자 OpenAI의 CEO인 Sam Altman은 직접 사과문을 발표하며 계약 발표가 “성급하고 기회주의적으로 보였다”고 인정했다. 회사는 곧바로 계약 내용을 수정해 인공지능 기술이 미국 시민 감시에 사용될 수 없다는 조항을 추가했다. 그러나 이미 논쟁의 핵심은 단순한 기업 이미지 문제가 아니었다.
이 사건은 인공지능이 본격적으로 군사 전략의 핵심 도구가 되는 순간을 보여주었기 때문이다.
AI가 바꾸는 전쟁의 속도
현대 군사 전략에서 인공지능은 이미 실전에서 활용되고 있다. 미국 국방부는 영상·데이터 분석을 위해 여러 AI 기업과 협력하고 있으며, 데이터 분석 기업 팔란티어 테크놀로지(Palantir Technologies)가 구축한 군사 플랫폼은 방대한 정보를 실시간으로 분석해 지휘관의 결정을 지원하는 역할을 한다.
AI가 군사 시스템에 도입되면 가장 먼저 변화하는 것은 의사결정 속도다.
전통적인 전쟁에서는 정보 수집과 분석, 지휘관 판단, 공격 명령에 이르기까지 비교적 긴 시간이 필요했다. 그러나 AI 시스템이 도입되면 상황은 크게 달라진다. 수많은 영상과 데이터를 실시간으로 분석해 목표를 추천하고 전술 선택지를 제시하기 때문이다.
결과적으로 전쟁의 의사결정 시간은 몇 시간에서 몇 초 수준으로 단축된다. 이른바 “결정 속도의 혁명”이 일어나는 것이다.
문제는 이 과정에서 인간의 판단이 점점 주변으로 밀려날 수 있다는 점이다.
실리콘밸리 내부의 갈등
이번 사건은 기술 기업 내부의 철학적 갈등도 드러냈다. OpenAI의 경쟁사인 앤트로픽(Anthropic)은 자사의 인공지능 모델이 대량 감시나 자율 무기 개발에 사용될 가능성을 우려해 군사 협력에 일정한 제한을 요구한 것으로 알려졌다.
그러나 이러한 입장은 미국 정부와의 협력 과정에서 갈등을 낳았고, 결과적으로 OpenAI가 그 공백을 빠르게 채우는 상황이 만들어졌다.
이는 오늘날 실리콘밸리의 두 가지 노선을 보여준다.
첫째는 AI 안전과 윤리를 우선하는 기술 철학이다. 둘째는 국가 안보와 기술 경쟁을 우선하는 전략적 현실주의다.
이 두 노선의 충돌은 앞으로 더욱 격렬해질 가능성이 크다.
‘AI 냉전’의 시작
이번 논란을 크게 보도한 중국 언론의 시각도 주목할 필요가 있다.

중국 매체들은 이 사건을 단순한 기술 뉴스가 아니라 AI 군비 경쟁의 증거로 해석하고 있다. 즉 미국이 인공지능을 군사 전략의 핵심 도구로 활용하기 시작했다는 것이다. 이러한 해석은 향후 국제사회에서 다음과 같은 담론 경쟁으로 이어질 가능성이 있다.
- 미국 : 군사 AI 기술 우위 확보
- 유럽 : 규제와 윤리 중심 접근
- 중국 : ‘책임 있는 AI’ 담론 강화
결국 인공지능은 이제 단순한 산업 기술이 아니라 국제 질서의 핵심 권력 자산이 되고 있다.
전쟁의 무기가 바뀌고 있다
20세기의 군비 경쟁은 핵무기와 미사일을 중심으로 전개되었다. 그러나 21세기 들어 전쟁의 핵심 자산은 점점 다른 형태로 변하고 있다. 폭탄과 탱크가 아니라 데이터와 알고리즘이 전쟁의 승패를 좌우하기 시작한 것이다.
이번 OpenAI 논란은 바로 그 변화를 상징적으로 보여주는 사건이다.
인공지능이 인간의 지식을 확장하는 도구가 될지, 아니면 새로운 군비 경쟁의 핵심 무기가 될지는 아직 결정되지 않았다. 다만 한 가지 분명한 사실은 이미 세계가 ‘알고리즘 전쟁’의 문턱에 들어섰다는 점이다.
그리고 그 전쟁의 무기는 더 이상 눈에 보이지 않는 코드와 데이터일지도 모른다.