AWS 공식 블로그 따르면, AWS는 오픈AI에 수십만 개의 최신형 엔비디아 GPU와 수천만 개의 CPU로 확장 가능한 EC2 울트라서버(UltraServer) 인프라를 제공한다. 이 시스템은 대규모 AI 학습 및 추론 작업에 최적화되어 있으며, 초저지연 성능과 보안을 동시에 갖춘 것이 특징이다. GB200과 GB300 GPU를 클러스터링한 EC2 울트라서버는 차세대 모델 학습부터 챗GPT와 같은 서비스의 실시간 추론까지 폭넓게 지원하도록 설계되었다.
오픈AI의 공동 창립자이자 CEO인 샘 올트먼은 “선독적인 AI 기술을 확장하기 위해서는 막대한 신뢰성 있는 컴퓨팅 파워가 필요하다”라며 “AWS와의 협력은 차세대 AI 시대를 이끌 핵심 동력이 될 것”이라고 밝혔다.
AWS CEO 맷 가먼은 “AWS의 최적화된 인프라가 오픈AI의 AI 혁신을 뒷받침할 것”이라며 “양사의 협력이 전 세계 조직들에게 첨단 AI 기술을 더욱 빠르게 전달할 것”이라고 언급했다.
오픈AI는 이번 파트너십의 일환으로 즉시 AWS의 컴퓨팅 인프라를 활용한다. 전체 용량은 2026년 말까지 단계적으로 배포될 예정이고 2027년 이후에도 추가 확장이 이뤄질 전망이다.
한때 마이크로소프트 애저 인프라만 사용하던 오픈AI는 최근 들어 다양한 인프라 기업들과의 협력을 확대하고 있다. AWS와는 ‘아마존 베드록’을 통해 오픈AI의 오픈 웨이트 기반 모델을 제공하며 파트너십을 강화했다. 이와 더불어 지난 9월 오라클과는 3,000억 달러 규모의 협약을 체결해 클라우드 인프라 다변화를 본격화하고 있다.
jihyun.lee@foundryco.com
Read More from This Article: MS·오라클 이어 AWS와도 손잡은 오픈AI, 380억 달러 투입해 AI 인프라 확대
Source: News

