컨텐츠 바로가기

03.04 (화)

“탁월한 성과다”…급소 찔리고도 中 딥시크에 박수 친 젠슨 황, 속내가?

0
댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
글로벌 AI생태계 확 커지면
결국 엔비디아 칩 수요 늘어

오픈AI가 숨겨온 추론능력
딥시크가 오픈소스로 공개
전세계 개발자에겐 희소식
적은 비용으로도 AI서비스


올해 1월 열린 세계 최대 IT(정보기술)·가전 전시회 ‘CES 2025’에서 기조연설을 하고 있는 젠슨 황 엔비디아 최고경영자(CEO). [사진 = 연합뉴스]

<이미지를 클릭하시면 크게 보실 수 있습니다>


“딥시크의 발전은 인공지능(AI) 발전에 있어 탁월한 성과다.”

딥시크가 출시된 직후인 1월 27일(현지시간) 단 하루 만에 약 880조원(6127억달러)의 시가총액을 날려 버린 엔비디아가 딥시크에 대해 내놓은 평가다. 하루 동안 시총 감소 규모로는 미국 증시 역사 사상 최대였다. 젠슨 황 엔비디아 최고경영자(CEO)의 자산도 200억달러(약 30조원)가 허공으로 사라졌다. 딥시크의 출현으로 AI 모델 성능을 높이는 데 비싼 엔비디아 그래픽처리장치(GPU)가 필요한 것은 아니란 인식이 커졌기 때문이었다.

주가가 하루 새 17%나 폭락한 직후에도 엔비디아가 딥시크에 찬사를 보낸 것으로 알려지면서 그 이유에 관심이 쏠리고 있다. 결론부터 말하자면 딥시크 덕분에 자칫 정체에 빠질 수 있던 엔비디아 제품에 대한 수요가 더 늘 것이란 게 회사 측 전망이다. 딥시크가 출시되면서 오픈AI가 숨겨왔던 기술이 공개됐고, 이를 활용하는 경쟁사가 더 늘 것이란 얘기다.

젠슨 황 CEO가 올해 ‘CES 2025’ 기조연설에서 설명한 ‘테스트 시간(Test-time)’ 스케일링 법칙이다. 스케일링의 법칙이란 간단히 말해 더 많은 매개 변수나 데이터를 사용하면 더 좋은 결과물을 얻을 수 있다는 얘기다. 올해 1월 CES에서 젠슨 황 CEO는 사전 학습, 사후 학습에 이어 테스트 시간을 세 번째 스케일링 법칙이라고 소개했다.

딥시크와 엔비디아 로고. [로이터 = 연합뉴스]

<이미지를 클릭하시면 크게 보실 수 있습니다>


엔비디아 대변인은 딥시크 쇼크 직후 CNBC와 인터뷰하면서 “딥시크의 발전은 테스트 시간 확장의 완벽한 예”라고 답했다. 그는 “널리 사용 가능한 모델과 연산을 이용해 (미국 정부의) 수출 통제를 준수하면서도 새로운 모델을 만들 수 있다는 것을 보여준다”고 말했다.

기존 스케일링 법칙은 AI 모델의 크기, 데이터의 크기, 사용하는 GPU의 크기를 확장시키면 AI의 성능이 기하급수적으로 늘어난다는 것이었다. 오픈AI의 GPT가 세대를 거치면서 깜짝 놀랄 성능 개선을 이뤄낸 것도 이 스케일링 법칙에 따라 AI 모델, 데이터, 엔비디아 GPU의 양을 늘렸기 때문이다.

하지만 지난해부터 스케일링 법칙이 작용하지 않는다는 우려가 AI 연구자들 사이에서 나왔다. 이 스케일링 법칙이 깨지면 엔비디아 GPU 수요도 줄어들 수밖에 없는 상황이었다.

작년 9월 오픈AI는 추론 모델인 o1을 공개하면서 테스트 시간 스케일링 법칙을 내세웠다. AI에 생각할 시간을 주면 AI의 성능이 좋아진다는 것이다.

한마디로 AI 추론에 대한 수요가 늘수록 엔비디아 GPU 수요가 계속될 수 있다는 의미다.

딥시크 애플리케이션 아이콘. [로이터 = 연합뉴스]

<이미지를 클릭하시면 크게 보실 수 있습니다>


딥시크가 1월 20일 공개한 R1은 추론 모델이다. 오픈AI가 꽁꼼 숨겨왔던 o1의 사고(reasoning) 능력의 비결이 오픈소스로 풀린 셈이다. 다른 AI 개발사도 사고 능력을 갖춘 AI를 쉽게 만들 수 있게 된 것이다. 실제로 딥시크는 o1에 비해 API 비용(프로그램 사용료)도 훨씬 저렴하다. AI 검색 서비스인 퍼플렉시티가 딥시크의 사고 기능을 바로 서비스에 탑재한 것도 이런 맥락이다.

엔비디아 입장에서는 o1의 기술이 딥시크에 의해 공개된 것은 장기적으로 GPU 수요를 늘리는 데 도움이 된다. 옴디아에 따르면 추론용 AI 반도체 시장은 2023년 60억달러(약 8조원)에서 2030년에는 1430억달러(약 208조원)로 24배 이상 성장할 것으로 예상되는데, 이 성장 속도가 더 빨라질 수 있다는 것이다. 엔비디아가 딥시크 쇼크를 두 손 들고 환영하는 이유다.

추론용 AI 반도체 시장이 커지면 한국 기업들이 많이 만드는 메모리 반도체 수요가 늘어날 것이라는 전망도 나온다. 추론용 AI 반도체를 개발하는 스타트업 하이퍼엑셀의 이진원 최고기술책임자(CTO)는 “AI 추론에서 메모리는 여전히 많이 필요하기에 고성능 DDR과 구형 HBM 등 가격 효율성이 있는 첨단 D램 수요가 더 늘어날 것”이라고 설명했다. 실제로 메타의 추론용 AI 반도체인 MTIA v2의 경우 저전력 D램인 LPDDR을 사용한다.

[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.