IBM과 Arm이 IBM과 Arm 기반 워크로드를 모두 실행할 수 있는 하드웨어를 공동 개발하겠다고 발표했다. 이를 통해 Arm 소프트웨어를 IBM 메인프레임에서 구동할 수 있도록 한다는 계획이다.
IBM은 지난 2일 보도자료를 통해 양사가 세 가지 분야에 집중할 예정이라고 밝혔다. 우선 Arm 소프트웨어가 IBM 플랫폼에서 실행될 수 있도록 가상화 도구를 구축한다. 또한 규제 산업이 요구하는 보안 및 데이터 주권 요건을 Arm 애플리케이션이 충족하도록 지원한다. 아울러 양측 플랫폼 전반에서 기업이 더 다양한 소프트웨어를 선택할 수 있도록 공통 기술 계층을 마련할 방침이다.
다만 IBM은 가상화 구현이 하이퍼바이저 수준에서 이뤄질지, 기존 PR/SM 파티셔닝 기술을 활용할지, 또는 컨테이너 방식으로 제공될지에 대해서는 구체적으로 언급하지 않았다. 이는 기업 아키텍트가 이번 협업의 실질적 가치를 평가하기에 앞서 확인해야 할 핵심 요소다.
IBM은 이번 프로젝트가 규제 워크로드를 운영하면서도 이를 클라우드로 쉽게 이전할 수 없는 기업을 지원하기 위한 것이라고 설명했다.
Arm의 현재 위상
IBM은 성명을 통해 그동안 IBM 메인프레임 고객이 클라우드 사용자가 이미 누리고 있는 Arm 기반의 전력 효율 향상을 활용하지 못했다고 밝혔다. Arm에 따르면 2025년 기준 주요 하이퍼스케일러에 출하된 전체 컴퓨팅 자원의 약 절반이 Arm 칩에서 구동되고 있다. 아마존웹서비스(AWS)는 그래비톤(Graviton), 구글은 액시온(Axion), 마이크로소프트(MS)는 코발트(Cobalt) 등 자체 Arm 실리콘을 각각 배포하고 있다.
AWS는 3년 연속 신규로 추가한 전체 CPU 용량의 절반 이상이 그래비톤 기반이라고 전했다. 독립 벤치마킹 기관 시그널65의 분석에 따르면 그래비톤4는 유사한 AMD x86 칩 대비 대규모언어모델(LLM) 추론 성능에서 최대 168% 향상됐으며, 가격 대비 성능은 220% 더 높은 것으로 나타났다.
컨설팅 기업 에베레스트그룹의 수석 애널리스트 라치타 라오는 이번 협업이 바로 이러한 격차를 해소하기 위한 것이라고 진단했다. 라오는 “이번 전략은 메인프레임 인접 영역을 확장하려는 접근”이라며 “Arm 호환 워크로드를 시스템 오브 레코드에 더 가까이 배치함으로써 IBM Z와 리눅스원 환경을 확장하려는 의도”라고 설명했다. 이어 “하이퍼스케일러는 Arm을 통해 내부 전력 비용을 낮추고 그 절감 효과를 클라우드 네이티브 고객에게 제공하고 있지만, IBM은 데이터 주권과 망분리 환경을 중시하는 시장을 겨냥하고 있다”고 분석했다.
라오는 특히 은행과 보험사에 이번 협업이 기술뿐 아니라 인력 측면에서도 의미가 있다고 짚었다. 라오는 “이들 조직은 원장 시스템 오류 위험 때문에 아키텍처 변경을 주저하고 있지만, 동시에 레거시 전문 인력은 점차 줄어들고 있다”라며 “당장 조달 주기가 달라지지는 않겠지만, 장기적으로 리눅스원이나 Z 플랫폼을 현대적인 내부 클라우드로 유지하는 데 따른 위험을 낮추는 효과가 있다”고 말했다.
AI 메인프레임용 칩 전략
이번 협업은 IBM이 메인프레임급 AI 워크로드를 처리하기 위해 설계한 두 가지 하드웨어 플랫폼을 기반으로 한다. 텔럼 II(Telum II) 프로세서와 스파이어(Spyre) 액셀러레이터다.
IBM은 2024년 8월 핫칩스에서 텔럼 II 프로세서를 공개했다. 이 칩은 5.5GHz로 동작하는 8개 코어를 탑재했으며, 온칩 캐시는 360MB로 기존 대비 40% 확대됐다. 실시간 트랜잭션 추론을 위한 내장형 AI 가속기와 입출력 작업을 처리하는 새로운 데이터 처리 장치도 포함했다.
스파이어 액셀러레이터는 현재 IBM z17과 리눅스원 5 플랫폼의 일부로 출하되고 있다. PCIe로 연결되며 32개 컴퓨트 코어를 갖췄고, IO 드로어당 최대 1TB 메모리를 지원한다. 카드당 전력 소비는 75와트를 넘지 않는다. IBM에 따르면 두 칩은 여러 AI 모델을 결합해 정확도를 높이는 앙상블 AI를 구동하는 데 함께 활용된다.
구체적 일정은 미정
IBM은 계획 중인 듀얼 아키텍처 시스템의 출시 일정과 세부 기술 사양을 공개하지 않았다. 이번 발표에 담긴 향후 방향성은 목표와 의지를 제시한 것으로, 변경될 수 있다고 안내했다.
라오는 IBM의 과거 하드웨어 개발 주기를 고려할 때 기업은 약 3년의 개발 기간을 염두에 둘 필요가 있다고 언급했다. IBM이 2024년 8월 텔럼 II와 스파이어를 공개했지만, 스파이어가 일반 공급 단계에 도달한 시점은 약 12~18개월이 지난 현재라는 점을 근거로 제시했다.
IBM은 동시에 다른 AI 인프라 협력도 확대하고 있다. 2026년 3월 GTC 2026에서 엔비디아와의 협력 확대를 발표했으며, GPU 기반 데이터 분석과 문서 처리, 온프레미스 및 규제 인프라, 컨설팅 영역을 포함한다. IBM은 2026년 2분기 초 IBM 클라우드에서 대규모 AI 학습과 추론, 추론 기반 처리에 활용할 수 있도록 엔비디아 블랙웰 울트라 GPU를 제공할 계획이라고 밝혔다.
라오는 이러한 병행 전략이 IBM의 AI 투자 우선순위를 보여준다고 평가했다. 라오는 “IBM의 엔비디아 협력 확대는 클라우드와 온프레미스 규제 인프라 전반에서 GPU 중심 분석과 AI 배치를 강화하려는 움직임”이라며 “이는 IBM이 Arm 호환성을 엔터프라이즈 AI 확장의 핵심 해법으로 보고 있지는 않다는 점을 시사한다”고 말했다. 이어 “대규모 AI는 여전히 GPU 중심 환경으로 이동하고 있다”며 “Arm 호환성은 새로운 애플리케이션 스택이나 서비스를 메인프레임에 더 가깝게 배치하는 데 기여할 수 있지만, AI 인프라의 핵심 전략을 재정의할 수준은 아니다”라고 분석했다.
dl-ciokorea@foundryco.com
Read More from This Article: IBM Z에 Arm 얹는다…클라우드 이전 어려운 워크로드 겨냥
Source: News

