HPE가 최신 AI 시스템 제조 시설 중 한 곳에서 열린 ‘AI 데이(AI Day)’ 행사를 통해 기업, 정부, 서비스 제공업체, 모델 제작자 등 다양한 분야에서의 AI 전문성과 리더십을 선보였다.
HPE에 따르면 최근 차세대 가속기의 효율성이 향상되고 있지만, AI 채택의 증가로 전력 소비는 계속해서 늘어나 기존 냉각 기술의 한계를 초과하고 있다. 이에 따라 대규모 AI 워크로드를 운영하는 조직들은 더 효율적인 냉각 기술을 필요로 하고 있다는 설명이다. HPE는 DLC가 차세대 AI 시스템을 냉각하는 데 유용할 수 있다고 언급했다. HPE의 냉각 시스템은 에너지 효율적인 슈퍼컴퓨터를 선정하는 그린500(Green500) 리스트의 상위 10대 슈퍼컴퓨터 중 7대에 제공됐다.
HPE 시스템 아키텍처는 아래 4가지 핵심 요소를 기반으로 설계됐다.
- GPU, CPU, 풀 서버 블레이드, 로컬 스토리지, 네트워크 패브릭, 랙/캐비닛, 팟/클러스터, 냉각분배장치(Coolant Distribution Unit, CDU)을 포함하는 8가지 요소 냉각 설계
- 복잡한 컴퓨팅 및 냉각 시스템의 성공적인 배포를 지원하기 위한 철저한 테스트, 모니터링 소프트웨어, 현장 서비스를 포함한 고집적도 및 고성능 시스템 설계
- 저비용 및 저전력 연결을 통합하여 대규모 확장을 지원하는 통합 네트워크 패브릭 설계
- 가속기 선택의 유연성을 제공하는 개방형 시스템 설계
100% 팬리스 직접 수냉 방식(Fanless DLC) 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감하는 특별한 이점을 제공한다. 이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며, 해당 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여, 바닥 면적을 절반으로 줄일 수 있다.
HPE는 자사 노하우를 바탕으로 설계된 100% 팬리스 DLC 아키텍처가 이미 대규모 생성형 AI를 구축하는 조직들이 누리고 있는 비용 및 에너지 효율성의 이점을 더 많은 조직들이 누릴 수 있도록 한다고 설명했다.
안토니오 네리 HPE 회장 겸 CEO는 “조직들이 생성형 AI의 가능성을 받아들이는 동시에, 지속가능성 목표를 달성하고, 증가하는 전력 수요에 대응하며 운영 비용을 절감해야 한다. 오늘 공개한 아키텍처는 오로지 수냉 방식을 적용해, 시중의 대체 솔루션보다 에너지 및 비용 절감 측면에서 큰 이점을 제공한다. 실제로, 해당 DLC 아키텍처는 기존 공랭식 시스템에 비해 냉각 전력 소비를 90%까지 절감할 수 있다. HPE는 최대 규모의 수냉식 IT 환경을 구축한 노하우와 수십 년간의 시장 리더십을 바탕으로 AI 수요를 지속적으로 확보할 수 있는 유리한 위치를 점하고 있다”라고 말했다.
AI 데이 행사에서는 HPE 회장 겸 CEO 안토니오 네리, HPE 하이브리드 클라우드 부사장 겸 총괄 매니저 및 CTO 피델마 루소, 그리고 HPE 서버 사업부 부사장 겸 총괄 매니저 닐 맥도날드가 네트워킹, 하이브리드 클라우드 및 AI의 비전을 실현하는 데 필요한 핵심 요소들을 HPE의 포트폴리오가 어떻게 제공하는지에 대해 논의했다.
[email protected]
Read More from This Article: HPE, 팬리스 직접 수냉 시스템 아키텍처 공개··· “AI 배포 시 효율성 증대”
Source: News