GPU 더 줄이고 값싼 D램 사용
업계 “현실화 땐 AI 2차 쇼크”
업계 “현실화 땐 AI 2차 쇼크”
지난해 1월 가성비·고효율의 인공지능(AI) 기술 모델인 ‘R1′을 내놓으면서 전 세계를 놀라게 한 중국의 AI 스타트업 딥시크가 최근 새 기술을 잇따라 발표하며 다시 한번 테크 업계의 주목을 끌고 있다.
딥시크는 올 들어서만 비싼 AI 칩을 덜 쓰고도 더 똑똑한 AI를 만들 수 있는 기술을 두 차례 발표했다. AI 업계에선 “딥시크가 주요 AI 모델을 내기 전 새 기술을 먼저 선보였던 전례를 감안할 때 조만간 새로운 가성비 기술을 적용한 딥시크 차세대 모델로 ‘제2의 딥시크 쇼크’를 일으킬 수 있다”는 전망을 하고 있다.
량원펑 창업자 등 딥시크 연구진은 지난 12일 개발자 커뮤니티 깃허브(GitHub)에 D램을 이용해 AI 성능을 높이는 기술을 논문 형태로 발표했다. 현재의 생성형 AI 모델은 AI 칩과 고성능 메모리(HBM)에 의존해 문장과 단어 하나하나를 만들어 낸다. 이 과정에 사용되는 AI 칩과 HBM은 가격이 비싸고, 계산 속도나 효율성도 낮을 수밖에 없다.
딥시크는 올 들어서만 비싼 AI 칩을 덜 쓰고도 더 똑똑한 AI를 만들 수 있는 기술을 두 차례 발표했다. AI 업계에선 “딥시크가 주요 AI 모델을 내기 전 새 기술을 먼저 선보였던 전례를 감안할 때 조만간 새로운 가성비 기술을 적용한 딥시크 차세대 모델로 ‘제2의 딥시크 쇼크’를 일으킬 수 있다”는 전망을 하고 있다.
량원펑 창업자 등 딥시크 연구진은 지난 12일 개발자 커뮤니티 깃허브(GitHub)에 D램을 이용해 AI 성능을 높이는 기술을 논문 형태로 발표했다. 현재의 생성형 AI 모델은 AI 칩과 고성능 메모리(HBM)에 의존해 문장과 단어 하나하나를 만들어 낸다. 이 과정에 사용되는 AI 칩과 HBM은 가격이 비싸고, 계산 속도나 효율성도 낮을 수밖에 없다.
딥시크 연구진은 AI 모델이 결과가 뻔한 내용에 대해선 복잡한 계산 대신 이전에 외부 메모리(D램)에 저장해 놓았던 결과를 불러와 쓰는 방식(엔그램·Engram)을 제안했다. 예를 들어 ‘9x7’을 계산할 때 일일이 9를 7번 더하는 게 아니라 구구단을 외워두면 곧바로 말할 수 있는 것과 같은 이치다.
고유명사·속담·숙어처럼 단순한 지식은 D램에 올려둔 데이터베이스에서 꺼내 쓰고, 고도의 AI 칩은 더 복잡한 연산이나 추론에 집중시킨다. 가격이 상대적으로 싼 D램은 단순 작업을, 비싼 AI 칩은 복잡한 작업을 하도록 선택과 집중을 통해 AI 모델의 가성비를 극대화하는 것이다. AI 모델이 단순한 정보에 답하려고 지식을 뒤지고 추론하는 데 능력을 낭비해 온 문제를 줄이는 해법이 될 수 있다.
AI 업계에선 “더 강력한 GPU, 더 많은 HBM에 의존하지 않고 가격이 저렴한 D램을 더 장착하는 것만으로 AI 성능을 끌어올릴 수 있는 길이 생긴 셈”이라며 “실제로 이 기술을 적용한 딥시크 AI가 나오면 시장에 주는 충격이 작지 않을 것”이란 반응이 나온다.
[정철환 기자]
- Copyrights ⓒ 조선일보 & chosun.com, 무단 전재 및 재배포 금지 -
