컨텐츠로 건너뛰기
검색
디지털투데이 언론사 이미지

차이나 텔레콤, 화웨이 칩만으로 AI 모델 개발…脫엔비디아 가속화

디지털투데이
원문보기

차이나 텔레콤, 화웨이 칩만으로 AI 모델 개발…脫엔비디아 가속화

서울맑음 / -3.9 °
[AI리포터]
중국의 AI 칩 독립 전략이 가시적 성과를 내고 있다 [사진: 셔터스톡]

중국의 AI 칩 독립 전략이 가시적 성과를 내고 있다 [사진: 셔터스톡]


[디지털투데이 AI리포터] 중국 차이나 텔레콤이 화웨이의 첨단 반도체만을 사용해 '전문가 혼합(MoE·Mixture of Experts)' 아키텍처 기반 인공지능(AI) 모델을 개발했다고 밝혔다. 이는 중국 개발진이 화웨이 칩만으로 MoE 모델 학습이 가능하다는 점을 공개적으로 입증한 첫 사례로, 미국산 GPU 의존도를 줄이려는 중국의 AI 자립 전략에 상징적인 의미를 갖는다.

20일(현지시간) 홍콩 사우스차이나모닝포스트(SCMP)에 따르면, 차이나 텔레콤 AI연구소가 공개한 대형 언어모델 '텔레챗3(TeleChat3)'는 1050억 개에서 최대 1조 개 이상의 매개변수를 갖춘 MoE 모델로, 화웨이의 어센드(Ascend) 910B 칩과 화웨이 주도의 오픈소스 AI 프레임워크 마인드스포어(MindSpore)를 활용해 학습됐다. 연구진은 "대규모 MoE 모델 학습 과정에서 핵심적인 기술적 문제를 해결함으로써 중국 내 자체 AI 스택을 구축했다"고 강조했다.

이번 성과는 화웨이와 아이플라이텍(iFlytek) 등 미국의 수출 규제와 블랙리스트에 오른 중국 기업들이 자국산 반도체와 소프트웨어만으로 AI 모델을 개발하려는 흐름의 연장선으로 해석된다. 특히 MoE 아키텍처는 전체 모델을 여러 개의 '전문가' 서브모델로 분산해, 상대적으로 적은 계산 자원으로도 모델 규모와 성능을 확장할 수 있어 중국 AI 업계에서 주목받고 있다.

다만 텔레챗3의 성능은 오픈AI의 GPT-OSS-120B보다 낮은 수준으로 평가됐다. 이는 MoE 구조를 활용하더라도 최첨단 AI 모델 개발에서는 여전히 엔비디아나 AMD의 고성능 GPU가 중요한 역할을 하고 있음을 보여준다. 업계에서는 MoE가 계산 효율은 높지만, 기존 밀집(dense) 모델보다 학습과 안정성 측면에서 기술적 난도가 높다는 점도 한계로 지적한다.

중국 내에서는 유사한 시도가 잇따르고 있다. 중국 AI 기업 Z.ai(옛 지푸 AI)는 최근 화웨이 칩으로 학습한 이미지 생성 모델을 공개하며 "국산 AI 스택으로 업계 최고 성능을 달성한 첫 사례"라고 주장했다. 앤트그룹 역시 3000억 개 매개변수를 가진 MoE 모델을 '고급 GPU 없이' 훈련했다고 밝혔지만, 해당 모델이 전적으로 국산 반도체만으로 학습됐는지는 명확히 공개하지 않았다.

한편 엔비디아는 자사 GPU가 MoE 모델 학습에 최적화돼 있다고 적극 홍보하고 있다. 미국 정부는 최근 엔비디아 H200 칩의 중국 판매를 제한적으로 허용했지만, 중국 기업들은 예외적인 경우에만 구매할 수 있어 실질적인 접근성은 여전히 낮은 상황이다. 이번 차이나 텔레콤의 발표는 이러한 제약 속에서도 '탈엔비디아' 가능성을 모색하려는 중국 AI 산업의 방향성을 분명히 보여주는 사례로 평가된다.

<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>