알리바바 '큐원 2.5-맥스' 출시…한국 AI 경쟁력 위기감 고조
패러다임 전환에 새로운 기회 전망 우세…네이버 주가 상승 출발
중국의 오성홍기와 중국의 AI 업체 딥시크를 합성한 시각물. ⓒ 로이터=뉴스1 ⓒ News1 박형기 기자 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
(서울=뉴스1) 김민석 기자 = 딥시크·알리바바 등 중국 기업들이 잇따라 LLM(거대언어모델) 기반 인공지능(AI)을 공개하며 미국 빅테크 기업들을 바짝 추격하고 있다.
딥시크-R1에 투입된 개발비는 550만 달러로 알려졌다. 오픈 AI가 챗GPT 개발에 쓴 비용 대비 18분의 1에 불과하다. 그런데도 수학계산과 코딩 부문에서 GPT-o1 성능을 웃돌며 전세계 인공지능 업계에 충격을 줬다.
미국과 중국의 AI 시장 장악은 디지털 주권 측면에서 분명 위협적인 일이다. 다만 소프트웨어 혁신으로 하드웨어 한계를 극복한 AI 모델을 참고하면 인프라 문제(고비용·인재·데이터 제한 등)로 어려움을 겪는 국내 기업들에 기회가 될 수 있다는 전망도 있다.
31일 IT 업계에 따르면 알리바바 클라우드는 최근 새로운 AI 모델 '큐원(Qwen) 2.5-맥스'를 출시했다. 알리바바는 이 모델이 △GPT-4o △딥시크-V3 △Llama-3.1-405B 등 최신 오픈소스 AI 모델을 능가한다고 주장했다.
그간 미국 글로벌 빅테크 기업들은 자본·기술·데이터·인재 등 여러 측면에서 우위를 점해 왔다.
반면 적은 비용으로 고효율 AI 모델을 개발하는 프로그래밍 접근법에 기회를 찾는 의견도 있다. 이번에 오픈소스로 공개된 여러 방식을 차용하면 GPU 등 인프라 부족 문제로 AI개발에 속도를 내지 못하던 한국 기업에 탈출구가 될 수 있어서다.
그간 천문학적인 투자 비용 탓에 글로벌 빅테크 기업들의 독주를 지켜볼 수밖에 없다는 분위기가 지배적이었지만, 딥시크가 개발 과정에 투입한 'H800 GPU' 2048개는 한국 기업도 감당할 수 있는 수준이다.
전문가들은 한국 기업이 딥시크가 사용한 '멀티헤드 잠재 어텐션'(MLA) 기술과 멀티토큰 예측(MTP) 기술을 도입하면 메모리 사용량을 줄이면서도 추론 속도를 높일 것으로 내다봤다.
딥시크 LLM 모델 프로그래밍(딥시크 기술 논문 갈무리) |
딥시크 모델은 오픈AI의 추론 모델(o1) 등 기존 데이터를 기반으로 논리 추론 및 문제 해결 능력을 키운 뒤 스스로 패턴을 발견하고 추론의 법칙을 끌어내도록 설계됐다.
여기에 예측 불가능한 상황 발생 시엔 어떻게 추론 해야 최적의 결과를 얻을 수 있을지 결정하는 전략도 함께 적용했다.
딥시크 기술 논문에서는 이러한 과정을 거친 R1 모델이 어느 지점에서 '아하 모멘트'(통찰)를 거쳐 스스로 진화했다고 설명했다.
딥시크 개발방식이 경쟁에 뒤처졌던 우리 기업들에 새로운 해법이 될 수 있다는 의견이 나오는 배경이다.
문형남 숙명여대 글로벌융합대학 학장 겸 글로벌융합학부 교수(한국AI교육협회 회장·AI 융합연구소 소장)는 "딥시크 등 중국 기업 부상은 한국 정부와 기업에 위기이자 기회"라며 "정부·기업은 R&D 투자 확대와 국제 협력을 병행하면서 글로벌 인재 영입에 힘써야 한다"고 강조했다.
한편 네이버(035420) 주가는 자체 AI 모델 고도화 기대감에 이날 오전 10시30분 기준 전거래일 대비 5.8% 이상(21만 4000원~21만 8500원) 오른 가격에 거래되고 있다.
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.