컨텐츠로 건너뛰기
검색
조선비즈 언론사 이미지

[비즈톡톡] “HBM4만 있는 게 아니다”… 엔비디아, ‘베라 루빈’에 최초 적용한 신기술은

조선비즈 전병수 기자
원문보기

[비즈톡톡] “HBM4만 있는 게 아니다”… 엔비디아, ‘베라 루빈’에 최초 적용한 신기술은

서울맑음 / -3.9 °
젠슨 황 엔비디아 CEO가 이달 5일(현지시각) 미국 라스베이거스 퐁텐블로 호텔에서 열린 엔비디아 CES 2026 라이브에서 루빈 그래픽처리장치(GPU)를 선보이고 있다./뉴스1

젠슨 황 엔비디아 CEO가 이달 5일(현지시각) 미국 라스베이거스 퐁텐블로 호텔에서 열린 엔비디아 CES 2026 라이브에서 루빈 그래픽처리장치(GPU)를 선보이고 있다./뉴스1



엔비디아가 이달 미국 라스베이거스에서 열린 세계 최대 IT·가전 전시회 ‘CES 2026’에서 차세대 인공지능(AI) 반도체 ‘베라 루빈’을 공개한 가운데, 여기에 접목될 새로운 기술에 테크 업계의 관심이 쏠리고 있습니다. 엔비디아는 신제품을 출시하면서 메모리 반도체부터 칩을 연결하는 통신 방식 등 첨단 기술을 적용해 왔습니다. 성능과 전력 효율 등을 최대치로 끌어올려 선두 자리를 굳히겠다는 전략의 일환입니다.

15일 엔비디아에 따르면, 베라 루빈은 회사가 공개한 최신 제품으로 올해 양산돼 고객사에 출하될 계획입니다. 세계적인 석학의 이름을 딴 앞선 세대 제품인 호퍼와 블랙웰 시리즈처럼 이번 신제품도 암흑물질 증거를 발견한 미국 천문학자 베라 루빈의 이름을 따왔습니다. 엔비디아는 이번 신제품이 지난 세대 AI 반도체 블랙웰의 성능을 5배 이상 능가할 것이라고 설명했습니다. 특히 엔비디아는 이번 신제품의 성능을 극대화하기 위해 광(光)반도체 기술인 실리콘 포토닉스 등을 새로 적용했다고 밝혔습니다.

◇ 빛 신호로 통신 속도 높이고, 물로 서버 식혀 전력 소모↓

베라 루빈이 탑재되는 서버에는 업계 최초로 빛으로 데이터를 전송하는 방식인 실리콘 포토닉스가 적용될 예정입니다. 이는 기존에 구리선 대신 빛(광신호)을 이용해 서버와 데이터를 주고받는 기술로, 전력 효율은 5배, 전송 속도는 10배 이상 높일 수 있는 기술로 평가됩니다. AI 반도체가 대용량 데이터를 처리하는 만큼 막대한 전력이 소모되고, AI 성능을 높이려면 더 빠른 데이터 처리가 필요한데 여기에 최적화됐다는 평가를 받습니다.

전력 효율을 잡기 위해 100% 수냉식 시스템을 적용했다는 점도 차별화 지점입니다. 수냉식 시스템은 과거 바람을 이용해 서버의 열을 식히는 공냉식과 달리, 물을 이용해 서버의 열을 식히는 방식입니다. 물은 공기보다 열 전도율이 25배 이상으로 월등히 높아 서버의 고발열 부품(CPU, GPU 등)에서 발생하는 열을 빠르고 효율적으로 방출하거나 흡수할 수 있습니다. 대규모 환풍기를 가동하고 찬 공기를 순환시키는 공냉식보다 전력 소비도 적습니다.

보안 성능도 강화됐습니다. 엔비디아는 베라 루빈의 서버에 2세대 모니터링 시스템을 탑재했습니다. AI 모델을 학습하는 과정에서 서버 장애는 모델 학습에 상당한 영향을 미칠 수 있습니다. 엔비디아는 이를 방지하기 위해 새로운 모니터링 시스템을 통해 문제가 발생할 경우 시스템을 종료하지 않고, 원래 작업을 인계받아 AI 연산에 차질이 생기지 않는 소프트웨어 시스템을 적용했습니다.

◇ HBM4, TSMC 3로 AI 반도체 성능 향상

이번 AI 반도체에서 가장 눈에 띄는 변화는 메모리 반도체인 HBM4(6세대 HBM)가 적용됐다는 점입니다. 고대역폭메모리(HBM)은 메모리 용량뿐만 아니라 AI 반도체의 두뇌 역할을 맡는 프로세서에 데이터를 전송하는 속도까지 극대화한 제품입니다. 베라 루빈에는 HBM4가 업계에서 처음으로 적용됩니다. 엔비디아는 AI 반도체의 성능을 최대치로 높이기 위해 삼성전자와 SK하이닉스, 마이크론 등과 초도 물량에 대한 구매 계약을 맺었음에도 전송 속도 등 성능을 제고할 수 있는 방안을 지속적으로 요구하고 있는 것으로 알려졌습니다.


베라 루빈 플랫폼은 TSMC 3나노(㎚·1㎚는 10억분의 1m) 공정을 적용해 연산 성능을 끌어올렸습니다. 엔비디아는 그래픽처리장치(GPU)의 성능이 이전 세대보다 4배 향상됐다고 밝혔습니다. 동일한 모델을 학습하는 데 필요한 GPU 개수는 전작과 비교해 4분의 1로 줄었고, AI 연산 성능을 구현하는 데 드는 비용 또한 기존 비용의 10분의 1로 줄어들었다는 게 회사 측의 설명입니다.

전병수 기자(outstanding@chosunbiz.com)

<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>