techcrunch 통신에 따르면 AI 챗봇 서비스 ChatGPT의 전력 소비가 기존에 알려진 것보다 훨씬 적을 수 있다는 연구 결과가 발표됐다.
미국 AI 연구 기관 Epoch AI는 최근 보고서를 통해 OpenAI의 최신 AI 모델인 GPT-4o를 기준으로 ChatGPT의 평균 전력 소비량이 약 0.3와트시라고 밝혔다. 이는 기존에 알려진 3와트시보다 10배 적은 수치로, 일반 가전제품보다도 낮은 수준이다.

Epoch AI의 데이터 분석가 Joshua You는 기존 연구들이 OpenAI의 모델이 오래된 비효율적인 칩을 사용했다고 가정하는 오류를 범했다고 지적했다. 그는 TechCrunch와의 인터뷰에서 “AI가 앞으로 많은 에너지를 소비할 것은 맞지만, 현재 AI가 사용하고 있는 전력량에 대한 정확한 정보가 부족하다”며 기존 연구들의 오류를 비판했다.
하지만 Epoch AI도 ChatGPT의 기능 확장과 복잡한 작업 수행으로 인해 전력 소비가 점차 증가할 것이라고 전망했다. 특히 이미지 생성, 긴 문서 입력 처리와 같은 기능들은 더 많은 에너지를 필요로 할 가능성이 크다고 밝혔다.

AI 산업이 빠르게 성장하면서 AI 데이터센터의 전력 소비 증가에 대한 우려도 커지고 있다. 최근 보고서에 따르면, 향후 2년 내 AI 데이터센터의 전력 수요가 캘리포니아 전체 전력 용량(68GW)에 맞먹을 수 있으며, 2030년까지는 원자로 8기(8GW) 수준의 전력이 필요할 것으로 예상된다.
이에 따라 100개 이상의 단체가 AI 기업과 규제 당국에 새로운 AI 데이터센터 건설이 천연자원을 고갈시키지 않도록 조치를 취할 것을 촉구하는 공개 서한을 발표했다.
OpenAI는 전력 소비를 줄이기 위해 GPT-4o-mini와 같은 저전력 AI 모델을 출시하고 있다. 하지만 현재의 효율성 개선만으로는 AI 모델의 점점 증가하는 연산 요구를 충족시키기는 어렵다는 분석이 나온다.
You는 “AI 모델이 점점 더 복잡한 작업을 수행할 것이고, 이는 더 많은 데이터센터와 전력이 필요하다는 의미”라며, AI의 지속 가능한 성장을 위해 효율적인 모델 개발이 핵심 과제가 될 것이라고 강조했다.
한편, AI 에너지 소비에 대한 우려가 커지면서 소비자들에게도 현실적으로 필요한 컴퓨팅만을 사용하고, 더 작은 AI 모델(GPT-4o-mini 등)을 활용하는 방법이 대안이 될 수 있다는 조언이 나오고 있다.