IBM은 클라우드 서비스에서 AI 가속기 옵션을 확대하고 있다. 이번 계약으로 IBM은 AMD 인스팅트 MI300X 가속기를 클라우드 서비스의 한 형태로 제공할 계획이다.
MI300X 가속기는 192GB의 고대역폭 메모리를 탑재해 대규모 AI 모델 추론 및 파인튜닝이 가능하다. AMD는 이 대용량 메모리 덕분에 고객이 더 적은 수의 GPU로 더 큰 모델을 실행할 수 있어 추론 비용을 절감할 수 있다고 설명했다.
IBM과 AMD는 MI300X 가속기를 IBM 클라우드 가상 서버(VPC), IBM 클라우드 쿠버네티스 서비스, IBM 레드햇 오픈시프트와 같은 컨테이너 지원 환경에서 사용할 수 있도록 제공할 계획이다. 이를 통해 AI 애플리케이션을 실행하는 기업 고객이 성능을 최적화할 수 있도록 지원한다.
IBM은 MI300X 가속기를 자사의 AI 및 데이터 플랫폼인 왓슨엑스에 지원할 예정이다. 이를 통해 하이브리드 클라우드 환경에서 AI 워크로드를 확장하려는 고객은 AI 워크로드 확장을 위한 추가 AI 인프라 자원을 활용할 수 있다. 또한 IBM은 레드햇 엔터프라이즈 리눅스 AI와 레드햇 오픈시프트 AI 플랫폼이 인스트럭트랩(InstructLab, IBM과 레드햇이 공동 개발한 LLM 개선 효율 솔루션용 오픈소스)을 통해 IBM이 자체 개발한 그래니트(Granite) 제품군 LLM의 AI 모델 성능 최적화 도구를 MI300X 가속기에서 실행할 수 있다고 설명했다.
AMD 총괄 부사장 겸 최고 커머셜 책임자 필립 귀도는 “기업이 계속해서 대규모 AI 모델과 데이터 세트를 채택함에 따라, 시스템 내 가속기가 높은 성능과 확장 유연성으로 컴퓨팅 집약적인 워크로드를 처리할 수 있는 것이 매우 중요하다”라고 밝혔다.
AMD 인스팅트 MI300X 가속기가 탑재된 IBM 클라우드는 2025년 상반기에 공식 출시될 예정이다.
엔비디아, 인텔 칩 지원 병행
AMD와의 협력은 IBM이 클라우드 사용자를 위한 AI 가속기 옵션을 확장하려는 노력의 일환이다. IBM은 이미 엔비디아와 인텔의 칩을 지원하고 있다.
지난 10월, IBM은 클라우드 사용자들이 엔비디아 H100 텐서 코어 GPU를 VPC와 관리형 레드햇 오픈시프트 환경에서 사용할 수 있게 했다고 발표했다. H100 텐서 코어 GPU는 IBM이 기존에 지원하던 엔비디아 GPU 및 소프트웨어 제품군에 추가됐다. IBM은 엔비디아 H100 텐서 코어 GPU가 A100 텐서 코어보다 최대 30배 빠른 추론 성능을 제공할 수 있다고 설명했다.
지난 8월, IBM과 인텔은 인텔 가우디 3 AI 가속기를 IBM 클라우드에 서비스 형태로 제공할 것이라고 발표했다. 인텔은 5세대 제온과 통합된 가우디 3가 클라우드와 데이터센터의 엔터프라이즈 AI 워크로드를 지원하며, 고객에게 소프트웨어 스택에 대한 가시성과 제어 기능을 제공해 워크로드 및 애플리케이션 관리를 간소화한다고 전했다.
2025년 초 출시 예정인 인텔 가우디 3는 IBM 클라우드 사용자가 엔터프라이즈 AI 애플리케이션 개발을 보다 비용 효율적으로 확장할 수 있도록 지원하는 것을 목표로 한다.
[email protected]
Read More from This Article: IBM, 클라우드 서비스에 AMD 최신 AI 가속기 지원
Source: News