컨텐츠로 건너뛰기
검색
디지털데일리 언론사 이미지

③ 'AI칩 전쟁 2막'… 퀄컴, AI 추론 엔비디아 독주 균열 [퀄컴 AI칩 출사표]

디지털데일리 김문기 기자
원문보기

③ 'AI칩 전쟁 2막'… 퀄컴, AI 추론 엔비디아 독주 균열 [퀄컴 AI칩 출사표]

속보
코스피, 4900선 재탈환…0.49% 상승 마감
[인더AI] 전력 대신 효율로 맞선다…퀄컴의 AI 역습

[디지털데일리 김문기 기자] “AI의 새로운 시대, 효율로 승부하겠다”

미국 반도체 시장이 다시 요동치고 있다. 인공지능(AI) 시대의 중심이 된 데이터센터 반도체 시장에서 오랫동안 엔비디아가 절대적 지위를 지켜왔지만, 이제 그 독주에 균열이 생기기 시작했다.

퀄컴은 27일(현지시간) 데이터센터용 AI 가속기 ‘AI200’과 ‘AI250’을 새롭게 공개하며, 훈련 중심의 GPU 시장을 넘어 ‘추론(inference)’ 효율에서 새로운 기준을 제시하겠다고 선언했다.

◆ 전력 효율과 메모리 혁신, ‘AI200·AI250’

이번에 발표된 AI200과 AI250은 퀄컴이 축적해온 모바일·엣지 칩 설계 기술을 데이터센터 수준으로 확장한 제품이다. 두 모델 모두 기존 GPU 대비 전력 효율을 대폭 개선했고, 특히 카드당 768GB의 대용량 LPDDR 메모리를 탑재했다. 이는 고가의 고대역폭 메모리(HBM) 대신 효율적인 구조를 적용해, 동일한 비용으로 더 큰 모델을 처리할 수 있게 한다.

AI200은 2026년, AI250은 2027년 상용화를 목표로 하고 있다. 두 칩은 모두 ‘랙 스케일(rack-scale)’ 구조를 지원해 수십 대의 서버를 하나의 거대한 추론 시스템처럼 통합할 수 있다. 고성능을 유지하면서도 발열을 줄이기 위해 전면 액체 냉각 방식을 적용했고, 범용 이더넷 네트워크를 통해 기존 데이터센터에도 손쉽게 통합할 수 있도록 했다.

두르가 말라디 퀄컴 테크놀로지스 수석부사장 겸 데이터센터 부문 총괄은 “AI200과 AI250은 우리가 생각하는 ‘랙 단위 추론 성능’의 한계를 다시 쓰는 제품”이라며 “퀄컴은 이제 모바일 효율의 상징에서 데이터센터 효율의 리더로 나아가고 있다”고 말했다. 그는 “개발자와 기업들이 이미 학습된 AI 모델을 훨씬 더 낮은 비용으로 빠르게 배포할 수 있게 될 것”이라며, “AI를 더 넓은 산업으로 확산시키는 데 퀄컴이 중요한 역할을 하게 될 것”이라고 덧붙였다.

AI250에는 ‘니어 메모리 컴퓨팅(near-memory computing)’ 구조가 새롭게 적용된다. 이 방식은 연산 장치와 메모리 간의 물리적 거리를 최소화해, 데이터를 주고받는 과정에서 발생하는 지연과 전력 낭비를 줄인다. 퀄컴은 이 기술을 통해 기존 대비 10배 이상 향상된 유효 메모리 대역폭을 구현할 수 있다고 설명했다.





◆ 사우디아라비아의 휴메인과 손잡다

이번 발표의 또 다른 핵심은 사우디아라비아의 AI 스타트업 ‘휴메인(HUMAIN)’과의 전략적 협력이다. 퀄컴은 휴메인을 AI200·AI250의 첫 공식 고객으로 확정했다. 휴메인은 2026년부터 사우디 내에 200메가와트(MW) 규모의 AI 데이터센터를 구축해, 자국 및 글로벌 시장을 대상으로 추론 서비스를 제공할 예정이다.

이번 협력은 사우디아라비아를 중동의 AI 허브로 부상시키려는 국가 전략과도 맞닿아 있다. 퀄컴은 기술력과 반도체 인프라를 제공하고, 휴메인은 자국에서 개발한 대형 언어모델 ‘알람(ALLAM)’을 활용해 클라우드 기반 AI 서비스를 전 세계에 공급할 계획이다.

크리스티아노 아몬 퀄컴 CEO는 이번 협력에 대해 “우리는 사우디아라비아가 지능형 컴퓨팅의 중심지로 도약하는 데 필요한 기술적 토대를 함께 구축하고 있다”며 “퀄컴의 고성능 AI 추론 솔루션을 통해 중동 지역은 물론 전 세계 기업과 정부 기관이 효율적인 AI 인프라를 활용할 수 있게 될 것”이라고 말했다.


그는 이어 “이것은 단순한 비즈니스 파트너십이 아니라, AI 시대의 글로벌 산업 재편에 대한 공동 투자”라고 강조했다.




◆ 효율의 시대, 퀄컴의 승부

AI 반도체 시장의 경쟁은 점점 양극화되고 있다. 엔비디아가 GPU를 통해 훈련 시장을 지배하고 있는 반면, 퀄컴은 ‘성능 대비 전력 효율’이라는 자신들의 고유한 무기를 내세운 셈이다.

시장조사업체 마켓앤드마켓츠는 글로벌 AI 데이터센터 시장이 2025년 2,360억 달러에서 2030년 9,300억 달러로 성장할 것으로 전망하며, 그중 절반 이상이 추론용 수요로 전환될 것으로 내다봤다.


패트릭 무어헤드 모어 인사이트앤스트래티지 대표는 “퀄컴은 이제 모바일 효율의 대명사에서 데이터센터 효율의 리더로 변신하려 하고 있다”며 “AI 추론은 앞으로 AI 산업의 지속 가능성을 좌우할 핵심 분야가 될 것”이라고 분석했다.

퀄컴은 2026년부터 매년 새로운 AI 칩을 선보이는 연간 로드맵을 확정하며 데이터센터 시장 진입을 공식화했다. 또한 AI 모델 배포를 위한 전용 소프트웨어 스택을 개발해, 개발자들이 손쉽게 모델을 테스트하고 배포할 수 있는 환경을 제공할 계획이다.

지금까지의 AI 반도체 시장은 훈련이 핵심이었다. 초거대 언어모델을 학습시키기 위해서는 수천 개의 GPU가 연결된 거대한 연산 클러스터가 필요했고, 이 시장은 엔비디아가 사실상 독점해왔다. 그러나 생성형 AI가 본격적인 상용 단계로 진입하면서 판도가 바뀌고 있다. 이제 AI는 더 이상 실험실 속 기술이 아니라 매일 수억 건의 요청에 응답하는 서비스가 되었고, 그 과정에서 ‘추론’의 중요성이 급격히 부상했다.

AI 모델은 한 번 학습되면 수천만 명의 사용자에게 서비스를 제공하며, 이때 발생하는 전력 소모와 처리 비용이 기업의 수익성을 직접 좌우한다. 다시 말해, 앞으로의 AI 경쟁은 단순히 누가 더 큰 모델을 학습시키는가가 아니라 누가 더 적은 비용으로 더 빠르게 응답할 수 있는가”로 이동하고 있다는 점이 바로 퀄컴이 노리는 지점이다.

시장조사기관 데이터센터날리지의 셰인 스나이더는 “이번 발표는 퀄컴이 모바일 중심의 회사라는 인식을 완전히 바꾸는 사건”이라며 “AI 추론 시장에서 엔비디아에 도전할 현실적 경쟁자로 부상했다”고 평가했다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -