중국 AI 스타트업 딥시크(DeepSeek)가 자사의 V3 및 R1 모델의 일간 비용-이익 비율이 이론적으로 545%에 달한다고 주장하며, 업계의 유사 모델을 채택하는 기업에 대한 비용 영향을 환기했다.
주말에 공개된 깃허브 포스트에서 딥시크는 엔비디아의 H800 칩을 시간당 2달러에 대여한다고 가정할 때, V3와 R1 모델의 일일 추론 비용이 8만 7,072달러라고 제시했다. 이론적 일일 매출은 56만 2,027달러이며, 이는 545%의 비용 대비 수익 비율과 2억 달러 이상의 잠재적 연간 매출을 의미한다.
그러나 회사는 무료 웹 및 앱 액세스, 낮은 V3 모델 비용, 사용량이 적은 시간대의 할인된 개발자 요금으로 인해 실제 매출은 상당히 낮다고 언급했다.
항저우에 본사를 둔 이 회사가 훈련된 AI 모델이 응답을 생성하거나 챗봇 상호 작용과 같은 기능을 수행하는 추론 작업의 수익 마진을 공개한 것은 이번이 처음이다.
실제 여부와 업계 영향
애널리스트들은 확장성과 효율성에 대한 딥시크의 초점이 인상적이라면서도 업계 전반에 적용할 수 있는 업계 벤치마크로 간주하기에는 아직 이르다고 평가했다.
카운터포인트 리서치의 파트너 겸 공동 설립자인 닐 샤는 “이론과 실제 사이에는 상당한 차이가 있기도 하다. 이는 비용 지표가 지역, 자원, 매출 창출에 따라 매우 주관적이기 때문이다. 이러한 주장의 목적이 무엇인지 알 수는 없지만, 적어도 서구 기업들이 비용을 공개하거나 내부적으로 최적화하도록 압력을 가할 것임은 분명하다”라고 말했다.
회사의 주장이 정확하다면, 이러한 수익성은 현실적인 수익성을 감안할지라도 지속 가능한 저비용 AI 모델을 의미한다. 또 잠재적으로 경쟁사들이 가격을 인하하도록 압력을 가하는 동시에 기업들이 벤더 선택과 장기적인 AI 전략을 재평가하도록 유도할 가능성을 제시한다.
아말감 인사이츠의 박현 CEO 겸 수석 애널리스트는 “현재 미국에 기반을 둔 주요 AI 회사 중 수익을 내고 있는 곳은 없다. 오픈 AI는 아직 멀었고, 마이크로소프트와 구글 모두 시장 확보를 위해 수십억 달러를 지출하고 있다”라고 말했다. 그는 이어 딥시크의 수치가 이론적이며 검증하기 어렵지만, 한 가지는 분명하다고 지적했다. 바로 딥시크가 추론 비용을 대폭 절감했다는 점이다.
에베레스트 그룹의 아비람 스리바시타 선임 애널리스트는 “딥시크의 AI 모델이 AWS나 마이크로소프트 애저와 같은 기존 클라우드 플랫폼에서 호스팅될 때, 기업에 성능, 관리, 경제성이라는 세 가지 요소를 균형 있게 제공할 수 있다. 이 모델은 미국의 주요 AI 회사에서 제공하는 모델보다 훨씬 더 비용 효율적이며, 훨씬 적은 컴퓨팅 파워를 필요로 하기 때문에 운영 비용이 절감된다”라고 말했다.
미국 기업에 대한 위협
딥시크의 비용 효율성과 오픈소스 접근 방식은 독점 모델에 막대한 투자를 하는 미국 기업에게 경쟁 격화를 의미한다. 딥시크는 현재 자사의 모델을 오픈소스로 제공함으로써 미국에 기반을 둔 기업들이 이를 감사하고 수정할 수 있도록 하고 있다.
따라서 중국에서 호스팅되는 인프라를 통해 배포되지 않는 한, 글로벌 채택에 큰 걸림돌이 없다는 분석이다. 박현 애널리스트는 “현재의 많은 모델이 현실의 생성형 AI 사용사례에 충분히 적합하다. 이를 감안할 때 딥시크는 미국 기반의 AI 모델 빌더에게 큰 위협이 될 것”이라며, “이론적 인공일반지능(artificial general intelligence)에 초점을 맞추는 AI 개발사는 실용적인 에이전트 모델을 만드는 개발사에게 빠르게 추월당할 가능성이 높다”라고 말했다.
[email protected]
Read More from This Article: “비용-이익 비율이 545%”··· 딥시크의 주장에 쏠리는 관심
Source: News