글로벌 반도체 학회 ‘멤콘 2024’서
고용량·고대역폭 메모리 선보이며
생성형 AI 연산 관련 기술 HBM 강조
삼성전자의 CXL 2.0 D램. |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
삼성전자가 26일(현지시간) 미국 실리콘밸리에서 인공지능(AI) 시대를 이끌 차세대 메모리 솔루션을 공개했다.
삼성전자는 이날 미국 캘리포니아주 마운틴뷰에서 열린 글로벌 반도체 학회 ‘멤콘(MemCon) 2024’에서 차세대 메모리 반도체 솔루션인 ‘컴퓨트익스프레스링크’(CXL) 기술 기반 메모리와 고성능·고용량의 고대역폭 메모리(HBM)를 선보였다.
이날 행사에서 미주 메모리연구소장인 최진혁 부사장과 D램 개발실장인 황상준 부사장이 기조연설을 했다. 삼성전자는 “메모리 용량 측면에서는 CXL 기술이, 대역폭 측면에서는 HBM이 미래 AI 시대를 주도해 나갈 것”이라고 밝혔다.
CXL은 중앙처리장치(CPU)와 그래픽처리장치(GPU), 메모리 반도체를 효율적으로 연결해 데이터 처리 속도와 용량을 높이는 기술이다. 최근 반도체 성능을 높이는 미세공정 혁신의 속도가 늦춰지는 상황에서 기존 미세공정의 한계에서 벗어나 D램과 낸드플래시 용량을 획기적으로 늘릴 수 있다. 생성형 AI의 발전으로 데이터 양이 많이 증가하면서 차세대 메모리 기술로 주목받고 있다.
최진혁 부사장은 “CXL은 메모리의 효율적인 관리가 가능하고 시스템의 안전성을 높일 수 있어 삼성전자만의 다양한 CXL 기반 솔루션을 통해 메모리 용량과 대역폭을 대거 향상시킬 수 있다”고 밝혔다.
삼성전자는 CMM-D(D램), 낸드와 D램을 함께 사용하는 CMM-H(하이브리드), 메모리를 묶어서 공유하는 메모리 풀링 솔루션인 CMM-B(박스) 등 CXL 기반 솔루션을 대거 선보였다.
삼성전자는 SK하이닉스에 뒤처졌다는 평가를 받은 HBM 관련 최신기술도 소개했다. HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 메모리로, 생성형 AI 연산에 필수적이다.
황상준 부사장은 “양산 중인 3세대(HBM2E)와 4세대(HBM3)에 이어 12단 5세대 HBM과 32기가비트(Gb) 기반 128기가바이트(GB) DDR5 제품을 상반기에 양산해 AI 시대 고성능·고용량 메모리 리더십을 이어가겠다”고 밝혔다. 삼성전자는 6세대 HBM의 경우 적층된 메모리의 가장 아래층에 컨트롤 장치인 버퍼 다이(Buffer Die)를 적용해 AI 시대 메모리 반도체 혁신을 이어간다는 계획이다.
황 부사장은 올해 삼성전자의 HBM 출하량을 지난해보다 최대 2.9배로 늘릴 수 있을 것으로 내다봤다. 앞서 삼성전자는 올해 HBM 출하 목표치를 전년 대비 2.5배로 제시했는데, 고객 수요에 유연하게 대응해 출하를 확대할 수 있다는 것이다.
멤콘은 AI 관련 메모리 솔루션을 심층적으로 논의하기 위해 지난해 처음 개최된 학회로 삼성전자와 SK하이닉스, 마이크로소프트(MS), 메타, 엔비디아, AMD 등이 참가했다.
배문규 기자 sobbell@kyunghyang.com
▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
▶ 온전히 나로 살 수 있는 ‘자기만의 방’, ‘방꾸’하기!
©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.