<이미지를 클릭하시면 크게 보실 수 있습니다> |
업계에서도 딥시크 등장이 AI 산업 생태계에 큰 변화를 가져올 수 있을 것이란 전망을 내놨다. ‘돈을 벌 수 있는’ AI가 절실해진 이 시점, 효율성에 방점을 찍은 AI 모델의 등장은 시장 지형 전체에 영향을 미칠 수 있다는 분석이다. 특히, 막대한 개발 비용이 부담이되는 AI 스타트업이나 후발주자 플레이어들에게는 획기적인 기회를 제공해줄 수 있을 것이란 해석도 이어진다.
다만, 일각에서 제기되는 ‘고성능 GPU 무용론’ 등에 대해서는 과장된 해석이라는 평가가 지배적이다. 저사양 GPU를 통해서도 수준급 AI 모델을 개발할 수 있을 것이란 분석엔 긍정적이지만, 그것이 곧 고성능 GPU의 필요성이 감소했음을 의미하는 것은 아니라는 설명이다. GPU 성능별로 개발 영역이 달라지는 등 생태계적 변화가 일어날 뿐, 절대적인 성능 발전을 위해서는 여전히 고성능 GPU의 존재가 필수적이라는 의견이다.
최근 중국 AI 스타트업 딥시크는 ‘딥시크-알원(DeepSeek-R1, 이하 R1)’과 ‘딥시크-알원-제로(DeepSeek-R1-Zero)’를 공개하면서, 핵심 마케팅 포인트로 ‘저비용 고효율’을 내세웠다. 딥시크가 발간한 R1 관련 논문에 따르면, 딥시크는 R1 개발에 557만달러(한화 약 79억원)가 소모됐으며, 엔비디아가 중국 수출 규제를 우회하기 위해 개발한 가성비 GPU ‘H20’과 ‘H800’을 통해 개발됐다.
먼저, 업계에서는 딥시크 등장으로 시장 기술 트렌드 변화가 본격화 될 것이란 전망을 내놨다. 기존 ‘스케일업’ 위주의 개발 트렌드가 ‘사고 사슬(Cain of Thought, 이하 CoT)’ 위주의 개발 트렌드로 바뀌고 있으며, 딥시크 등장은 그 변화의 본격적인 신호탄 역할을 하게 됐다는 평가다. 두 개발 방법론 모두 흔히 AI 학습을 위해 사용되는 대표적인 기법으로, 이해를 위해 쉽게 비유하자면 ‘책 100권을 한번 읽은 AI(스케일업)’와 책 한권을 ‘100번 읽은 AI(CoT)’의 차이인 셈이다.
딥시크가 공개한 R1 개발 논문에 따르면, R1은 CoT에 방점을 두고 개발된 AI 모델이다. 대규모 데이터를 기반으로 학습하기보다는 처음에 제공된 초기 데이터(콜드 스타트 데이터)를 기반으로 끊임 없이 사고 과정을 지속하는 CoT를 실시했다.
여기에 ‘강화학습’까지 적용한 것도 중요한 지점이다. 구체적으로는 ‘인간의 개입을 최소화한 강화학습을 통해 효율적으로 성능을 높였다’는 것이다. 강화학습은 AI의 답변을 평가함으로써 올바른 답변을 유도하는 학습 방법이다. 이러한 강화학습 특성상 인간의 개입이 불가피하기 때문에 생성형 AI 등 범용적인 질문을 다뤄야 하는 모델 개발에 있어서는 비교적 비효율적인 방식이라는 평가를 받았다.
이러한 배경 속에서 R1은 강화학습과 사전학습의 조화를 통해 한층 더 효율적인 개발 방식을 제시하고 있다는 것이 딥시크 측 설명이다. 딥시크가 공개한 논문에 따르면, R1은 콜드 스타트 데이터를 기반으로 추가적인 파인튜닝(미세조정) 과정 없이, 자체검증 강화학습을 통해 효율적으로 AI 성능을 높이는 방식을 채택했다.
한 AI 기업 관계자는 “기존에는 많은 데이터를 학습하는 ‘트레이닝 타임’을 늘리는 것이 성능 고도화의 핵심이 됐다면, 이제는 학습 횟수를 늘리는 ‘테스트 타임’ 지표를 늘리는 것이 핵심으로 떠오르고 있다”며 “테스트 타임을 늘리는 것이 비용적 측면에서 장점이 있는데, 성능적으로도 뒤쳐지지 않는다는 것이 딥시크를 통해 증명될 수 있다는 기대감이 높아지고 있다”고 설명했다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
AI 업계에서 주목하고 있는 또 다른 부분은 딥시크가 해당 모델을 오픈소스로 공개했다는 지점이다. 타사 대형언어모델(LLM)을 활용해 AI 특화 서비스를 개발하는 소프트웨어 기업 특성상, 저사양 GPU만으로도 구동이 가능한 AI 모델은 매력적인 대상일 수밖에 없다. 오픈소스 LLM 모델을 가져와서 특화 AI 서비스를 개발하는 과정에서도 상당한 GPU 비용이 발생하기 때문에, 그 비용을 낮추고 현재와 유사한 수준의 모델을 개발할 수 있다는 것은 획기적인 변화라는 의견이다.
국내 종합 LLM 솔루션 제공 기업을 이끌고 있는 김우승 크라우드웍스 대표는 <디지털데일리>와 주고 받은 서면질의서를 통해 “(딥시크 등장은) 기존에 비해서 더 저렴한 비용으로 LLM 개발 및 추론 능력을 갖춘 AI 모델을 만들 수 있는 좋은 기회라고 생각된다”며 “LLM 기술을 기반으로 애플리케이션(이하 앱)이나 서비스를 만들어야 하는 곳이라면 더욱 저렴한 비용으로 좋은 AI 기술을 가져다 쓸 수 있기 때문에 활용 기회가 크게 늘 것으로 예상된다”고 말했다.
고성능 GPU가 필요 없다?...“마케팅 유효타, 시장에서 과장 해석”
시장에서는 ‘저사양 GPU를 통한 고급 추론 모델 개발이 가능해졌다’는 점을 주로 조명하고 있는 모습이다. 다만, 그 해석을 두고는 의견이 분분하다. 일각에선 저사양 GPU만으로도 딥시크와 같은 AI 모델을 개발할 수 있게 됐으니, 엔비디아가 비싸게 파는 최신 GPU ‘H100’과 ‘H200’ 등의 필요성이 크게 낮아진 것은 아니냐는 의견이다.
마크 저커버그 메타 최고경영자(CEO)는 이날 “(딥시크와 같이 개발 비용이 저렴한 모델의 등장이) 더 적은 컴퓨팅파워가 필요하다는 것을 의미하지 않는다”며 “더 높은 수준의 지능과 더 높은 품질의 서비스를 생성하기 위해 추론 시간에 더 많은 컴퓨팅이 필요하기 때문"이라고 설명했다.
그는 최근에도 개인 소셜미디어를 통해 올해 650억달러(한화 93조원)를 투자해 130만개 규모 GPU 칩을 데이터센터에 추가하겠다고 전한 바 있다.
김우승 크라우드웍스 대표는 “매우 낮은 개발 비용에 대한 의문이 제기되고 있는데, 중국은 미국 보다 상대적으로 비용이 저렴한 인프라 환경에서 AI 모델을 개발하고 서비스를 구축할 수 있고, 또한 이미 미국이 천문학적 비용과 시행착오를 겪으면서 개발한 공개된 기술과 데이터를 이용했기에 그 개발 비용은 더 적게 들었을 수밖에 없을 것으로 보인다”고 전했다.
이러한 과장된 해석은 중국과 딥시크의 ‘마케팅’ 혹은 ‘신경전’ 전략이 유효했음을 방증한다는 의견도 나온다. 지난해까지 시장은 AI라는 키워드 자체만으로 지갑을 열고 투자를 이어갔다. AI 기술이 빠르게 발전하면서 그에 따른 AI 서비스 발달 속도도 가속화될 것이란 전망이 있었기 때문이다. 그러나 막상 AI 기업들의 실질적인 성과는 묘연했고, 그 결과 올해부터는 본격적으로 수익성이 증명된 AI, 즉 ‘돈 되는 AI’를 가리기 위한 작업이 이어질 것이란 전망이 시장 전체를 지배했다.
이러한 배경 속에서 딥시크는 저비용·고효율 등 키워드를 강조하는 것으로 마케팅 전략에 힘을 준 모습이다. 그 결과 “AI는 비싸다”는 분위기를 고조시켜온 미국 AI 기업들이 역풍을 맞게 된 것이라는 분석이다.
또 다른 AI 기업 관계자는 “오픈소스로 모델을 공개한데다가 ‘저비용’ 키워드까지 강조하고 나서다보니, 업계에서 충격이 쉽게 가라앉지 않는 분위기”라며 “언뜻 보면 한 AI 스타트업이 쏘아올린 작은 공이지만 결과적으로 중국과 미국의 AI 자존심 대결로 이어지게 된 상황”이라고 분석했다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.