오픈AI(OpenAI)는 대규모 AI 배포 과정에서 가장 빠르게 부각되고 있는 제약 요인 가운데 하나를 완화하기 위해, 스타게이트(Stargate) 데이터센터 구축에 필요한 전력 생산 및 송전 인프라 비용을 직접 부담하겠다고 밝혔다.
이번 결정은 전력 접근성이 데이터센터 기획과 입지 선정에 미치는 영향이 달라지고 있음을 보여준다. 대규모 AI 모델을 지원하는 데이터센터는 기존 엔터프라이즈 데이터센터보다 훨씬 많은 전력을 필요로 하며, 이로 인해 AI 인프라의 비용 구조 자체가 근본적으로 변화하고 있다.
딜로이트에 따르면 미국 내 AI 특화 데이터센터의 전력 수요는 2024년 약 4기가와트(GW)에서 2035년 약 123기가와트(GW)로 늘어나며, 30배 이상 증가할 가능성이 있다.
이와 유사한 문제의식은 마이크로소프트(MS)에서도 나타났다. 지난 13일 MS는 자사 데이터센터가 지역 유틸리티 인프라에 부담을 주지 않도록, 추가 전력 및 수자원 인프라 비용을 직접 부담하겠다고 발표했다.
오픈AI의 경우 각 스타게이트 부지마다 지역 특성에 맞춘 맞춤형 에너지 계획을 포함할 예정이다. 이는 기존 지역 전력망에 의존하기보다, 전용 발전·저장·송전 설비를 직접 구축하는 방식을 포함할 수 있다.
오픈AI는 20일 보도자료를 통해 “각 커뮤니티와 지역은 서로 다른 에너지 수요와 전력망 여건을 갖고 있으며, 오픈AI의 투자는 해당 지역에 맞게 조정될 것”이라며 “부지에 따라 프로젝트가 전액을 부담하는 전용 전력 및 저장 설비를 도입하는 것부터, 새로운 에너지 발전 및 송전 자원을 추가로 구축하고 그 비용을 지불하는 방식까지 다양할 것”이라고 설명했다.
‘에너지 주권’으로의 전환
업계 분석가들은 이번 움직임이 데이터센터 전략의 근본적인 변화를 반영한다고 보고 있다. 기존의 ‘광케이블 우선(fiber-first)’ 입지 선정 방식에서 ‘전력 우선(power-first)’ 전략으로 중심축이 이동하고 있다는 분석이다.
가트너의 수석 애널리스트인 아시시 바네르지는 “과거 데이터센터는 지연 시간을 최소화하기 위해 인터넷 교환 지점이나 대도시 인근에 구축됐다”라며 “하지만 AI 학습 요구량이 기가와트 단위에 이르면서, 오픈AI는 과부하 상태의 공공 전력망에서 제한된 자원을 놓고 경쟁하기보다 자체 발전과 송전 설비를 구축할 수 있는 ‘에너지 주권’ 지역을 우선시하겠다는 신호를 보내고 있다”라고 분석했다.
네트워크 아키텍처 측면에서 이는 ‘미들 마일’ 구간의 대규모 확장을 의미한다. 미들 마일은 국가 핵심망과 데이터센터·지역 네트워크를 잇는 중간 연결 구간이다. 에너지가 풍부하지만 외진 지역에 초대형 데이터센터가 들어서면서, 업계는 이러한 ‘전력 섬’을 엣지와 연결하기 위해 장거리·대용량 다크 파이버(아직 통신 장비가 설치되지 않은 유휴 광섬유) 구축에 막대한 투자를 해야 하는 상황이다.
바네르지는 네트워크가 두 갈래로 나뉘는 구조를 보이게 될 것이라고 내다봤다. 그는 “사람이 거의 없는 외딴 지역에는 ‘콜드(cold)’ 모델 학습을 담당하는 대규모 중앙 집중형 코어가 자리 잡고, 사용자와 가까운 곳에는 ‘핫(hot)’ 실시간 추론을 위한 고도로 분산된 엣지 네트워크가 구축될 것”이라고 설명했다. 여기서 콜드는 대규모 연산이 필요하지만 지연에 민감하지 않은 장시간 학습 작업을, 핫은 사용자 요청에 즉각 반응해야 하는 저지연 실시간 추론을 의미한다.
테크인사이츠(TechInsights)의 반도체 애널리스트 마니시 라와트 역시 이러한 전략이 이점을 제공하는 동시에 아키텍처 복잡성 증가라는 부담을 수반한다고 지적했다.
라와트는 “네트워크 관점에서 이는 소수의 초대형 허브와 지역별로 분산된 학습·추론 클러스터를 고용량 백본 링크로 연결하는 구조로 이어진다”라며 “초기 자본 지출(capex)은 늘어나지만, 확장 일정에 대한 통제력이 높아지고, 느리게 진행되는 공공 유틸리티 인프라 증설에 대한 의존도를 줄일 수 있다”라고 분석했다.
AI 서비스를 사용하는 기업 고객 입장에서는 이러한 변화가 장기적인 비용 예측 가능성과 지역별 서비스 제공 방식에 영향을 미칠 수 있다. AI 플랫폼이 기존의 대도시 데이터센터 허브보다 전력 자원이 풍부한 지역에 더욱 밀접하게 연동되기 때문이다.
데이터센터 설계에 미치는 영향
전력 생산과 송전까지 직접 통제하게 되면서, AI 제공업체는 사실상 자체 유틸리티 기업의 역할을 수행하게 되고 있다.
가트너의 바네르지는 “데이터센터 상호연결 설계에서는 단순한 이중화 중심 접근에서 벗어나, ‘에너지 인지형(energy-aware)’ 부하 분산이 핵심으로 떠오르고 있다”라며 “AI 모델 제공업체가 발전소를 직접 소유할 경우, 연산 주기를 에너지 생산량과 동기화해 지금까지 없었던 하드웨어 수준의 통합을 구현할 수 있다”라고 설명했다.
지연 시간에 민감한 워크로드와 관련해서는, 초대형 데이터센터가 모든 AI 처리를 담당할 것이라는 인식이 일반적인 오해라는 지적도 나온다. 실제로 직접적인 에너지 투자는 실시간 추론에 요구되는 ‘빛의 속도’보다는, 모델 학습에 필요한 대규모 연산량을 뒷받침하는 데 초점이 맞춰져 있다.
바네르지는 “이번 전략은 학습 사이트 자체의 지연 시간 요구 조건을 오히려 완화해, 물리적으로 떨어진 위치에서도 보다 견고한 상호연결(interconnect)을 가능하게 한다”라며 “여기서의 진정한 혁신은 단순히 더 빠른 칩이 아니라, 전력 변동으로 수개월에 걸친 학습 작업이 중단되지 않도록 전력망과 연산 패브릭을 동기화하는 것”이라고 언급했다.
이 같은 변화는 데이터센터 간 복원성 설계 방식에도 영향을 미치고 있다. 기존의 전력망 다양화 중심 접근에서 벗어나, 자체 전력 인프라와 네트워크 수준의 이중화를 결합한 하이브리드 모델로 이동하는 흐름이다.
테크인사이츠의 라와트는 “이러한 전환은 분산된 시설 전반에 걸쳐 더 높은 복원성을 요구하는 동시에, 지연 시간과 트래픽 흐름에 대한 보다 정밀한 제어를 필요로 한다”라며 “특히 지연 시간에 민감한 AI 워크로드의 경우, 전용 전력 자산 인근에 대규모 학습 클러스터를 배치하고, 추론 인프라는 최종 사용자 가까이에 유지하는 계층화된 아키텍처로 이어질 가능성이 크다”라고 내다봤다.
dl-ciokorea@foundryco.com
Read More from This Article: 오픈AI, ‘전력 우선’ 설계로 AI 데이터센터 입지 전략 전환
Source: News

