생성형 AI(genAI) 도구 수요로 인해 데이터센터에서 전력 소모가 큰 GPU와 TPU의 사용이 크게 증가하고 있다. 일부 서버 팜에서는 10만 대 이상 활용되기도 한다. 클라우드 컴퓨팅과 생성형 AI로의 전환에 따라 신규 데이터센터의 규모가 커지고 있다. 미국 전력 연구소(EPRI)에 따르면 100~1,000메가와트 용량의 새로운 시설이 건설되는 사례가 이미 흔하다. 이는 대략 8만~80만 가구의 에너지 요구량에 해당하는 규모다.
AI 관련 에너지 소비는 향후 3년 동안 매년 약 45% 증가할 것으로 예상된다. 오픈AI의 챗GPT는 780억 건의 사용자 쿼리를 처리하는 데 연간 약 2억 2700만 킬로와트시의 전력을 사용하는 것으로 추정된다. 빅데이터로 거래 확률을 계산하는 온라인 서비스인 베스트브로커스의 조사에 따르면 챗GPT가 1년간 사용하는 에너지는 미국 가정 2만 1,602곳에 전력을 공급할 수 있는 양이다. “이는 미국 1억 3,602만 가구의 0.02%에 불과하지만, 특히 미국 가구 수가 세계 3위를 차지한다는 점을 고려하면 엄청난 양이다”라고 베스트브로커스의 보고서는 설명했다.
EPRI의 보고서에 따르면 생성형 AI 모델은 지난 20년간 데이터센터 성장을 주도한 데이터 검색, 스트리밍, 통신 애플리케이션보다 훨씬 더 에너지 소비적이다. 챗GPT의 경우 요청당 2.9와트시의 전력을 사용하는 것으로 추정된다. 구글 쿼리의 약 0.3와트시와 비교해 10배에 달하는 수치다. EPRI는 전례 없는 수준의 이미지, 오디오, 동영상 생성 등의 연산 집약적 기능이 출현하고 있다고 전했다.
현재 미국에는 약 3,000개의 데이터센터가 있으며, 2030년까지 그 수가 두 배로 증가할 것으로 예상된다. 현재 생성형 AI 애플리케이션은 데이터센터 전력의 10~20%를 사용하는 것으로 추정되지만, 그 비율은 빠르게 증가하고 있다. EPRI는 “데이터센터가 2030년까지 미국 전체 전력 생산량의 4.6%에서 9.1%를 소비할 것으로 예상된다. 현재는 약 4% 수준이다”라고 전했다.
아직 위기 아니지만 에너지 수요 증가 중
IDC 리서치 디렉터인 션 그레이엄에 따르면 데이터센터 전력 소비는 2028년까지 두 배로 증가할 전망이지만, 그래도 전체 에너지 소비의 18%에 불과하다. “따라서 에너지 소비 문제의 원인을 AI 탓으로 돌리는 것은 적절하지 않다. AI가 에너지를 많이 사용하지 않고 데이터센터가 급속히 늘어나는 것이 아니라고 말하는 것은 아니다. 데이터센터 에너지 소비는 매년 20%씩 증가하고 있다. 이는 상당한 수치이지만 여전히 전 세계 에너지 수요의 2.5%에 불과하다”라고 그는 말했다.
그는 이어 “즉 에너지 문제를 AI 탓으로만 돌릴 수는 없다. 문제인 것은 맞지만 AI는 전 세계 에너지 문제의 손쉬운 변명거리가 되곤 한다”라고 덧붙였다.
AI 데이터센터의 각 GPU는 생성형 AI 도구와 플랫폼의 알고리즘 기반인 하나의 대규모 언어 모델 (LLM)을 학습하는 동안 400와트 이상의 전력을 소비하기 십상이다. 즉, 챗GPT-3와 같은 단일 LLM을 훈련하는 것만으로도 최대 10기가와트시(GWh)의 전력을 소비할 수 있다. 이는 대략 미국 1,000여 가구의 연간 전력 소비량과 맞먹는 양이다.
베스트브로커의 보고서는 “흥미롭게도 1조 개에 달하는 파라미터가 있는 GPT-4 모델을 훈련하는 데 100일 동안 무려 6,230만 kWh의 전력이 필요했다. 이는 34일 동안 약 130만 kWh를 사용한 GPT-3가 소비한 에너지의 48배에 달하는 양이다”라고 전했다.
워싱턴 대학의 연구에 따르면 이러한 데이터센터는 전 세계에 수백 개가 있으며 주로 아마존, 마이크로소프트, 구글에 의해 운영된다. 그리고 이들이 사용하는 에너지의 양은 빠르게 증가하고 있다. 2022년 미국의 총 AI 데이터센터 에너지 소비량은 23조 테라와트시(TWh)를 기록할 것으로 예상된다. (1TWh는 1시간 동안 사용되는 1조 와트의 전력을 의미한다.)
IDC 리서치에 따르면 이 수치는 연평균 44.7%의 성장률로 증가해 2027년에는 146.2TWh에 달할 것으로 예상된다. 그 시점에는 AI 데이터센터 에너지 소비량이 전체 데이터센터 에너지 소비량의 18%를 차지한다는 관측이다.
생성형 AI가 얼마나 빠르게 등장했는지를 고려할 때 위기가 닥치기까지 그리 오래 걸리지 않을 것이라는 추측이 이미 나오고 있다. 기술 기업가 엘론 머스크는 올해 초 2025년이 되면 AI의 급속한 발전을 뒷받침할 에너지가 부족할 것이라고 말했다.
요금제 차별화?
24일 발표된 IDC 연구에 따르면, 생성형 AI 성장에 따른 압력 외에도 수요와 공급의 역학, 환경 규제, 지정학적 사건, 기후 변화로 인한 기상이변으로 인해 전기 요금이 상승하고 있다. IDC는 지난 5년간의 전기 가격 상승이 계속될 것으로 예상하며, 이로 인해 데이터센터 운영 비용이 상당히 높아질 것으로 보았다. (IDC에 따르면 데이터센터 구축 비용은 메가와트당 600만 달러에서 1400만 달러에 달하며, 각 센터의 평균 수명은 15년에서 20년이다.)
이러한 맥락에서 전기 공급사와 기타 유틸리티 업체들은 AI 분야의 조직이 다른 곳에 비해 더 많은 양의 컴퓨팅 주기와 그에 따른 에너지를 빠르게 소비한다는 점에서 클라우드 제공업체가 그랬던 것처럼 더 높은 전기 요금을 지불해야 한다고 주장해 왔다.
또한 공급업체들은 늘어난 사용량을 처리하기 위해 에너지 인프라를 구축해야 한다고 주장하고 있다. 예를 들어, 오하이오주에 기반한 AEP(American Electric Power)는 AI 데이터센터 소유주에게 매월 필요한 에너지의 최소 90%를 지불하는 10년 약정을 맺을 것을 제안했다(사용량이 적더라도). AEP는 2030년까지 데이터센터의 부하가 15GW 증가할 것으로 예상된다며, 전력 인프라를 확장하기 위해 자금을 미리 조달하고자 한다고 밝혔다.
데이터센터 운영자들은 당연히 반발하고 있다. 현재 구글, 아마존, 마이크로소프트, 메타 등이 AEP 제안에 맞서고 있다. 이 회사들은 지난달 오하이오주 공공요금위원회에서 특별 요금에 대해 “차별적”이고 “불합리하다”라고 주장했다.
그레이엄은 AI 공급업체에 대한 특별 전력 요금이 공정한지 여부에 대한 의견은 밝히지 않았지만, 대량 산업용 전력 소비자에게 더 낮은 전기 요금을 부과하는 관행을 언급했다. 그는 “시장을 잊고 소비자로서 여러분과 저를 생각한다면 대량 할인을 기대할 수 있다. 따라서 데이터센터 공급업체도 볼륨 할인을 기대하는 것 같다”라고 말했다.
전기료는 데이터센터 운영에서 가장 큰 비용으로 인프라 비용의 40~60%를 차지하며, 이러한 비용 구조를 바꾸면 기업 수익에 “엄청난 영향”을 미칠 것이라고 그레이엄은 말했다.
칩 제조업체들도 상황을 예의주시하고 있다. 전력 수요 증가를 우려한 엔비디아, 인텔, AMD는 문제를 해결하기 위해 에너지를 덜 소비하는 프로세서를 개발하고 있다. 예를 들어, 인텔은 곧 차세대 AI 가속기를 출시할 예정인데, 이는 개발 초점을 칩당 전력 소비량에 맞춰져 있다.
대안으로의 원자력
한편, AI 데이터센터 운영자들은 원자력 에너지에 주목하고 있다. 아마존은 올해 초 미국 최대 원자력 발전소 중 하나인 테슬라로부터 6억 5,000만 달러를 들여 100% 원자력 에너지로 가동되는 데이터센터를 인수했다. 지난주에는 마이크로소프트가 미국 역사상 최악의 원전 사고가 발생한 펜실베이니아의 쓰리마일 아일랜드 발전소를 재가동하기 위해 컨스텔레이션 에너지와 계약을 체결한다고 발표했다. 이 계약에 따라 마이크로소프트는 향후 20년간 쓰리마일 아일랜드의 전력 100%를 구매하여 AI 에너지 수요를 충당할 계획이다.
지난 7월, 미국 에너지 자문위원회는 AI 및 데이터센터에의 전력 공급안을 다룬 보고서를 발표하고 미국 에너지부가 증가하는 수요를 안정적이고 경제적으로 지원할 수 있는 16가지 권장 사항을 제시했다. 이 보고서는 AI 모델 학습을 위한 전력 역학, 데이터센터 및 유틸리티 사업자를 위한 운영 유연성, 부하 증가를 충족하기 위한 유망한 에너지 생성 및 저장 기술 등을 담고 있다.
보고서에 따르면 전력 공급업체, 데이터센터 고객 및 기타 대형 고객들은 모두 수요를 따라잡을 수 있는 능력에 대해 우려를 제기했다. “이들은 거의 공통적으로 스토리지 추가를 가속화하고, 은퇴를 늦추고, 기존 자원에 추가 투자할 것을 권장했다”라고 보고서는 언급했다.
권장안에는 ‘기존 원자력 및 수력 발전 시설의 업데이트 및 재허가’, ‘깨끗하고 견고하며 저렴하고 파견 가능한 새로운 기술의 조속한 시연’이 포함된다. 보고서는 “대부분의 경우, [이해관계자들은] 태양광, 풍력, 배터리 외에 새로운 천연가스 용량을 추가하는 것이 신뢰성을 유지하기 위한 현재 가능한 주요 옵션으로 보고 있다”라고 전했다.
IDC의 그레이엄은 “지열과 수소를 포함한 모든 전력 공급원이 필요할 것”이라며, “AI의 전력 소비가 명백히 증가하고 있다. 클라우드에 비유할 수 있다. AI의 한 가지 다른 점은 서버당 에너지 소비량이 크다는 점이다”라고 말했다. [email protected]
Read More from This Article: 생성형 AI의 확산, 에너지 위기 초래할까?
Source: News