[인더AI] AI 반도체 4강전, 퀄컴의 출사표가 흔든 ‘GPU 제국의 균열’
엔비디아가 장악한 AI 학습(Training) 시장의 독주에 균열이 생기기 시작했고, AMD가 정면에서 추격하는 사이 퀄컴이 ‘추론(Inference)’ 중심의 새로운 시장을 열고 있다. AI 산업의 핵심 동력인 데이터센터용 반도체 시장이 ‘훈련의 엔비디아, 균형의 AMD, 생태계 방점의 인텔, 효율의 퀄컴’이라는 4강 구도로 재편되는 분위기다.
젠슨 황 엔비디아 CEO는 “AI 시대의 새로운 산업혁명은 이미 시작됐다”며 AI 공장(AI Factory) 전략을 강조하고 있다. 그는 데이터센터를 'AI 제품을 생산하는 새로운 제조라인'으로 정의하며, 클라우드 사업자와의 장기 계약을 통해 GPU 리소스를 독점적으로 공급하고 있다. 다만, 엔비디아의 높은 칩 가격과 전력 소비는 기업들의 부담으로 이어지고 있다. 이미 많은 기업이 AI를 얼마나 강력하게 학습시킬 수 있느냐보다 얼마나 효율적으로 운영할 수 있느냐에 대한 고민이 크다.
마이크로소프트, 오라클, 메타 등 글로벌 기업들이 MI300 기반 서버 도입을 검토 중이지만, 여전히 개발자 생태계의 깊이에서는 엔비디아와 거리가 있다. 업계에서는 AMD는 엔비디아의 방식을 가장 닮은 도전자라는 평가가 나온다.
이와 달리 퀄컴은 ‘학습’이 아닌 ‘추론’에 집중했다. 이미 훈련된 대형 언어모델(LLM)을 실행하고, 실제 서비스에 적용하는 과정에서 필요한 효율적 연산 구조를 겨냥했다. 퀄컴이 공개한 ‘AI200’과 ‘AI250’ 칩이 그 결과다. AI200은 카드당 768GB의 LPDDR 메모리를 탑재하고, 액체 냉각과 PCIe 확장성을 지원한다. GPU 대비 전력당 연산 효율이 최대 두 배 높다는 게 퀄컴의 설명이다.
퀄컴 두르가 말라디 부사장은 “AI200과 AI250은 AI 인퍼런스의 정의를 다시 쓰는 솔루션”이라며 “탁월한 효율성과 비용 구조를 갖춘 새로운 랙스케일 AI 시대를 열 것”이라고 말했다.
퀄컴은 사우디아라비아의 AI 인프라 기업 휴메인(HUMAIN)과 협력해 2026년부터 200메가와트 규모의 AI 데이터센터를 운영할 계획이다. 엔비디아 GPU 중심의 데이터센터 구조와 달리, 이 프로젝트는 퀄컴의 AI200·AI250 칩을 중심으로 구성된다.
지난 9월 개최된 스냅드래곤 테크 서밋 2025에서 휴메인 타렉 아민 CEO는 “퀄컴의 AI 기술력은 사우디가 AI 허브로 도약하는 데 핵심적인 역할을 할 것”이라며 “엣지부터 클라우드까지 완전한 AI 인프라를 구축할 것”이라고 밝혔다. 크리스티아노 아몬 퀄컴 CEO는 “우리는 AI를 다시 민주화하려 한다”며 “AI가 특정 기업의 독점 기술이 아닌, 모든 산업의 기본 인프라가 되도록 하겠다”고 말했다.
한편, 엔비디아가 훈련 시장을, AMD가 균형 전략으로 그 중간을, 그리고 퀄컴이 추론 시장을 맡으며 AI 반도체 산업은 처음으로 ‘역할 분화’가 나타나고 있다. AI 학습과 추론의 경계가 명확해지는 가운데, 전력 효율과 총소유비용(TCO)이 경쟁의 새로운 기준으로 부상 중이다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
