[이백현 기자] <편집자주> 주 1회 발송되는 '디지털포스트 뉴스레터'를 간추려 전해드립니다. ☞뉴스레터 구독하기
[디지털포스트(PC사랑)=이백현 기자] 인공지능(AI)은 이제 국가의 핵심경쟁력으로 취급받고 있습니다. 한 미국 싱크탱크(CNAS)는 해당 분야의 경쟁이 미·중 등 글로벌 국가 간 권력구도를 재편할 수 있는 중대사항이라는 주장했죠. 내용을 요약하면 "AI는 21세기의 핵무기"라는 건데요. 개인적으로는 참 호들갑스럽다 싶습니다.
뭐 AI 흐름을 타고 승승장구하고 있는 기업은 많지만, 가장 눈에 띄게 돈을 벌고 있는 건 역시 두 기업 정도를 꼽을 수 있겠죠. 이른바 'AI 칩'인 그래픽처리장치(GPU)를 생산하는 엔비디아와, 그 GPU에 들어갈 고대역폭메모리(HBM)을 생산하는 SK하이닉스입니다. 엔비디아는 지난해 대한민국 국가예산(약 600조원)의 6분의 1에 해당하는 109조원 매출을 올렸고, 엔비디아에 HBM을 납품하는 SK하이닉스는 한 해 매출이 66조원으로 전년 대비 2배로 뛰었습니다.
[디지털포스트(PC사랑)=이백현 기자] 인공지능(AI)은 이제 국가의 핵심경쟁력으로 취급받고 있습니다. 한 미국 싱크탱크(CNAS)는 해당 분야의 경쟁이 미·중 등 글로벌 국가 간 권력구도를 재편할 수 있는 중대사항이라는 주장했죠. 내용을 요약하면 "AI는 21세기의 핵무기"라는 건데요. 개인적으로는 참 호들갑스럽다 싶습니다.
뭐 AI 흐름을 타고 승승장구하고 있는 기업은 많지만, 가장 눈에 띄게 돈을 벌고 있는 건 역시 두 기업 정도를 꼽을 수 있겠죠. 이른바 'AI 칩'인 그래픽처리장치(GPU)를 생산하는 엔비디아와, 그 GPU에 들어갈 고대역폭메모리(HBM)을 생산하는 SK하이닉스입니다. 엔비디아는 지난해 대한민국 국가예산(약 600조원)의 6분의 1에 해당하는 109조원 매출을 올렸고, 엔비디아에 HBM을 납품하는 SK하이닉스는 한 해 매출이 66조원으로 전년 대비 2배로 뛰었습니다.
그런데 이쯤에서 궁금하지 않으신가요? 그래픽처리장치(GPU)는 이름처럼 게임 등의 '그래픽 화면'을 연산해주는 장치인데, 이게 어째서 'AI 칩'이라고 불리고 있는지. 이 GPU가 'AI 칩' 역할을 하기 위해서는 왜 높은 대역폭의 메모리인 고대역폭메모리(HBM)이 필요한지...
이번 뉴스레터에서는 그래픽처리장치(GPU)가 왜 AI의 필수 요소가 됐는지, 고대역폭메모리(HBM)는 왜 중요한 역할을 하는지, 한번 쉽게 풀어봤습니다.
HBM, GPU...너넨 하는 일이 뭐니?
인공지능(AI)은 사실 이전부터 광범위하게 활용되어온 용어입니다. 사실 '갖다붙이기 나름'인 측면도 있어서, 요즘은 웬만한 가전·디지털 기기에는 다 'AI 기능'이 탑재됐다는 식으로 소개되기도 하죠. 일종의 마케팅 용어로 다소 남용되기도 하는 게 현실입니다.
따라서 지금은 AI의 범위를 흔히 아는 '챗GPT', 그리고 '딥시크'와 같은 대규모언어모델(Large Language Model, LLM)로 좁혀보겠습니다.('생성형 AI', '대화형 AI'라는 표현도 대규모언어모델과 동일한 뜻을 담고 있습니다.)
여러분은 '대규모언어모델'이라는 단어에 어떤 인상을 가지시나요? 뭔가 굉장히 많은 언어 데이터를 저장하고 있을 것 같고 한번에 많은 것을 계산하는 복잡한 프로그램 같은 것을 연상하신다면, 네 맞습니다. 그게 정답입니다.
대규모언어모델, 즉 생성형 AI는 ①한번에 많은 데이터를 동시에 계산하고, 그 과정에서 ②매우 많은 데이터(패러미터)를 다룬다는 점이 특징입니다. 그리고 이 두가지 특징은 바로 주요 'AI 칩'으로 꼽히는 그래픽처리장치(GPU), 그리고 그 안에 들어가는 고대역폭메모리(HBM)의 특징과 직접적으로 연결됩니다.
방금 생성형 AI는 특징 중 하나를 ①한번에 많은 데이터를 동시에 계산한다고 했죠? 조금 더 구체적으로 말하면, 단순하고 쉬운 계산을 동시에, 아주 많이 필요로 합니다. 그리고 그걸 가장 잘 하는 장치가 현재까지는 바로 그래픽처리장치(GPU)였던 거예요.
물론 GPU는 이름처럼 게임 등에서 계산된 그래픽 화면을 모니터로 표시해주는 역할을 합니다. 여러분은 모니터 해상도에서 1920x1080등의 표기를 흔히 보셨을 텐데요. 이건 모니터 안에 탑재되어 빛을 발하는 점, 그러니까 '픽셀(pixel)'의 개수를 의미하죠. 이 점의 갯수가 많으면 더 높은 해상도로 화면을 볼 수 있는 거고요.
GPU는 바로 이 각각의 픽셀(빛나는 점)이 언제, 어떤 색의 빛을 나타내야 할지 계산하는 장치입니다. 1920x1080 해상도면......픽셀의 갯수는 대략 20만 7천 개군요. GPU는 이 20만 7천개의 점이 각각 어떤 빛을 나타내야 할지, 매 순간 실시간으로 계산해서 여러분의 눈 앞에 보여주고 있는 겁니다. 이 뉴스레터를 보고 있는 여러분의 스마트폰·PC의 GPU가 그 역할을 담당하고 있죠. 해상도가 높다면 이 점의 갯수가 더욱 많아지니, GPU의 성능이 더 좋아야 할 테고요.
즉 GPU는 태생적으로 20만 개 이상의 비교적 단순한 계산을, 동시에·많이 할 수 있는 장치입니다. 아까 생성형 AI의 특징이 뭐라고 했죠? 아하, ①한번에 많은 데이터를 동시에 계산한다 고 했군요.
벌써, 우리는 '왜 AI에 그래픽처리장치(GPU)가 필요한지'에 대한 대답을 얻었습니다. ①한번에 많은 데이터를 동시에 계산하는 장치가 필요한데, 이걸 가장 잘 하는 게 현재까지 GPU였던 거예요.
그럼 아까 생성형 AI의 특징 중 하나로 ②매우 많은 데이터(패러미터)를 다룬다고 했는데, 이건 아마 고대역폭메모리(HBM)이 필요한 이유와 이어지지 않을까요? 바로 그렇습니다.
고대역폭메모리란, 조금 쉽게 말하면 말 그대로, 용량이 많은(대역폭이 높은) 메모리입니다. 메모리(Memory)는 그 영어 단어처럼 '기억장치'를 뜻하는데요. 이를테면 여러분이 수학 문제를 풀 때, 기억력이 좋으면 암산이 편할 겁니다. 왜냐하면 이전에 계산하던 숫자를 잊어버려서, 적어놓은 숫자를 다시 확인하는 일이 적어질 테니까요.
그리고 컴퓨터 장치가 메모리에서 하는 역할이 바로 이 머릿속 '암산 기억력'에 해당합니다. 우리의 기억력이 좋으면 암산이 훨씬 수월해지는 것과 똑같은 원리로, 메모리가 ②대량의 데이터(패러미터)를 기억하고 있어야, GPU가 ①한번에 많은 데이터를 동시에 계산 하는 데 편한 거죠.
그런데, 이걸 수월하게 수행하려면 '기억장치(메모리)'의 저장 공간이 많을 수록 좋겠군요? 특히 대규모언어모델(LLM)처럼, 아주아주 많은 데이터를 다룬다면요. 네. 저장 공간의 용량이 많은 메모리, 다시 말해 고대역폭메모리(HBM)가 필요한 이유가 이거예요. 사람이 암산을 할 때, 머릿속의 '작업대'가 넓으면 넓을 수록 좋은 것처럼. 그래픽처리장치(GPU)가 대규모의 언어 데이터를 처리할 때는, 고용량의 기억장치(HBM)가 있으면 유리한 겁니다.
HBM의 특징은, '고대역폭메모리'라는 이름처럼 ②대량의 데이터(패러미터)를 기억하는데 유리하다는 점입니다. 구조적으로는 작은 메모리 칩을 수직으로 쌓아올리는 방식을 통해 용량을 높였기 때문에, 작은 크기에 높은 용량을 구현할 수 있지만, 칩 각각이 모두 고장이 없어야 전체가 고장이 없는 구조라서 수율 문제가 높고 기술적 난이도가...... 네, 그렇습니다. SK하이닉스가 어째서 승승장구하고 있느냐면, 기술적 난이도가 높은 일을 잘 해내고 있기 때문입니다.
여태까지의 내용을 한번 정리해보겠습니다.
대규모언어모델(LLM)은 그 단어에 대한 인상처럼 굉장히 많은 언어 데이터를 다루고 한번에 많은 것을 계산하는 복잡한 프로그램입니다. ②굉장히 많은 데이터를 다룬다는 점에선 고대역폭메모리(HBM)가, ①한번에 많은 것을 계산한다는 점에선 그래픽처리장치(GPU)가 유리합니다.
다만 언제까지 대규모언어모델(LLM)이 더 많은 데이터 처리(HBM 역할)를 요구할지, 그래픽처리장치(GPU)가 'AI에 가장 적합한 칩' 지위를 언제까지 유지할 수 있을지에 대해서는 논쟁의 여지가 있습니다.
[관련 기사] 그래픽카드와 AI, 어떤 관계일까? GPGPU와 미래 AI 하드웨어 시장
<저작권자 Copyright ⓒ 디지털포스트(PC사랑) 무단전재 및 재배포 금지>
