<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 석대건 기자] AI 데이터센터 성능 향상을 위한 컴퓨트 메모리 기술 경쟁이 본격화되고 있다. AMD와 엔비디아가 각각 다른 메모리 연결 기술을 적용한 신제품을 발표하면서 AI 워크로드 처리를 위한 기술 주도권 경쟁이 가속화되는 양상이다.
AMD는 지난 12일 개방형 산업 표준인 CXL 3.1을 탑재한 2세대 버설 프리미엄 시리즈를 공개했다. 이 제품은 FPGA 업계 최초로 CXL 3.1과 PCIe Gen6, LPDDR5X를 하드 IP 형태로 지원하는 디바이스다. CXL 3.1은 기존 CXL 2.1 대비 두 배의 대역폭을 제공하며, 최대 8533Mb/s의 메모리 대역폭을 달성했다.
반면 엔비디아는 곧장 19일 자체 개발한 NVLink 기술이 적용된 H200 NVL PCIe GPU를 발표했다. 4세대 NVLink는 CPU와 GPU 간 900GB/s의 속도로 연결해 PCIe 5.0 대비 대역폭은 7배, 에너지 효율은 5배 향상됐다. 특히 LLM 추론에서 최대 1.7배, HPC 애플리케이션에서 1.3배의 성능 향상을 달성했다.
두 기술은 성능 최적화 접근 방식에서 뚜렷한 차이가 있다. CXL은 서로 다른 프로세서 간 캐시 일관성 유지를 위해 지연 시간 최소화에 집중한다.
이를 위해 FEC(Forward Error Correction) 기능을 사용하지 않아 속도보다는 정확도를 우선시한다. FEC 기능은 데이터 전송 중 발생할 수 있는 오류를 사전에 검출하고 교정하는 기술을 의미한다.
반면 NVLink는 다수 GPU의 병렬 처리 환경에 최적화돼, 대량 데이터 처리에 중점을 두고 FEC를 통한 사후 오류 교정 방식을 채택했다.
업계는 향후 두 기술이 공존하는 방식으로 발전할 것으로 본다. CXL이 시스템 전반의 메모리 확장성과 범용성을, NVLink가 GPU 클러스터링에서의 고성능 영역에서 특화될 전망이다.
우선 CXL은 서버와 데이터센터의 비용 효율성을 고려해야 하는 대형 기술 기업들이 채택을 확대할 것으로 예상된다.
이미 CXL은 CPU, 가속기 반도체, DRAM, 스토리지 등 시스템 전반을 아우르는 포괄적 규약으로 자리 잡았다. CXL 기술 표준화를 논의하는 CXL 컨소시엄에는 삼성전자, SK하이닉스 등 메모리 공급사를 비롯해 AMD, Arm, 시스코 시스템즈, 델 EMC, 구글 등 데이터센터 운영 기업이 포함돼 있다.
AMD 2세대 버설 프리미엄 시리즈는 2025년 2분기부터 개발 툴이 제공되며, 2026년부터 본격적인 양산이 시작될 예정인 만큼 수요처가 이미 정해진 상황이다.
엔비디아는 점유율을 기반으로 AI와 HPC 컴퓨팅 시장에서의 우위를 공고히 하고 있어 고성능 AI 연산 및 추론 처리를 원하는 데이터센터 기업을 공략할 것으로 예상된다.
신제품인 H200 NVL도 12월부터 델 테크놀로지스, HP엔터프라이즈, 레노버 등 주요 서버 제조사를 통해 공급될 예정이다. 또 파트너와 고객이 고성능 AI 인프라를 대규모로 설계하고 배포할 수 있도록 엔터프라이즈 레퍼런스 아키텍처도 개발 중이다.
업계 관계자는 "각 기술의 특징이 명확한 만큼 어느 한 기술이 시장을 독식하기보다는, 워크로드 특성에 따라 두 기술이 상호보완적으로 적용돼 공존하는 방식으로 발전할 것"이라고 말했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.