컨텐츠로 건너뛰기
검색
헤럴드경제 언론사 이미지

“GPU 메모리 부족 일거에 해결” ETRI, 새 메모리기술 ‘옴니익스텐드’ 개발

헤럴드경제 구본혁
원문보기

“GPU 메모리 부족 일거에 해결” ETRI, 새 메모리기술 ‘옴니익스텐드’ 개발

속보
尹 '내란 우두머리' 결심 오후 재판 시작
- 서버·가속기 간 메모리 공유, 성능 혁신
- 표준 이더넷으로 AI·빅데이터 인프라 최적화
ETRI 연구진이 초대형 AI 학습을 위한 이더넷 기반 메모리 확장 시스템을 구성하고 성능을 검증하고 있다.[ETRI 제공]

ETRI 연구진이 초대형 AI 학습을 위한 이더넷 기반 메모리 확장 시스템을 구성하고 성능을 검증하고 있다.[ETRI 제공]



[헤럴드경제=구본혁 기자] 국내 연구진이 초대형 인공지능(AI) 학습 과정의 고질적 문제인 ‘메모리 부족’을 근본적으로 해결할 수 있는 핵심 기술 개발에 성공했다.

한국전자통신연구원(ETRI)은 초대형 AI 학습에서 가장 큰 문제로 꼽히는 GPU의 메모리 한계와 데이터 병목 현상을 해결하는 새로운 메모리 기술 ‘옴니익스텐드(OmniXtend)’를 개발했다고 밝혔다.

최근 초대형 AI 모델과 고성능 컴퓨팅(HPC) 수요가 급격히 증가하면서, 처리해야 할 데이터 규모도 폭발적으로 커지고 있다.

그러나 GPU 성능이 아무리 향상되더라도, 메모리 용량이 충분하지 않으면 연산 효율이 급격히 떨어지는 ‘메모리 장벽(memory wall)’ 문제는 여전히 해결 과제로 남아 있었다.

ETRI가 개발한 옴니익스텐드는 표준 네트워크 기술인 이더넷(Ethernet)을 활용해 여러 서버와 가속기(Device) 각각의 메모리를 하나의 대용량 메모리처럼 공유하는 기술이다.

즉 각 장비에 개별적으로 존재하던 메모리를 네트워크 전반으로 확장, AI 학습에 필요한 메모리를 원하는 만큼 유연하게 확보할 수 있는 구조를 구현했다.


옴니익스텐드는 이러한 확장형 메모리 공유 구조를 이더넷 기반으로 구현함으로써 초대형 AI 학습의 성능과 확장성, 경제성을 동시에 확보했다.

먼저 데이터 이동 지연을 최소화함으로써 AI 학습 속도가 향상됐으며, 서버 교체 없이 메모리를 확장할 수 있어 데이터센터 구축·운영 비용 절감 효과도 기대된다.

특히 기존 고속 직렬 통신 인터페이스(PCIe) 기반 구조는 장비 간 연결 거리와 시스템 확장에 한계가 있었다.


반면 옴니익스텐드는 이더넷 스위치를 활용해 물리적으로 떨어진 다수의 장비를 하나의 메모리 풀로 묶을 수 있어, 초대규모 AI 환경에 적합한 고확장성 시스템 구조로 평가받고 있다.

실제 시연에서는 이더넷 환경에서 여러 장비가 공유 메모리 풀(memory pool)을 구성하고 실시간으로 서로의 메모리에 접근하는 모습을 성공적으로 보여줬다.

옴니익스텐드 기술을 개발한 ETRI 연구진. 차승준(왼쪽부터) 박사, 김강호 본부장, 석성우 박사, 고광원 실장.[ETRI 제공]

옴니익스텐드 기술을 개발한 ETRI 연구진. 차승준(왼쪽부터) 박사, 김강호 본부장, 석성우 박사, 고광원 실장.[ETRI 제공]



실험 결과, 메모리 용량이 부족한 환경에서는 LLM 추론 성능이 크게 저하된 반면, 이더넷 기반으로 메모리를 확장한 경우 성능이 2배 이상 회복됐다.


ETRI는 향후 본 기술을 데이터센터 하드웨어·소프트웨어 기업을 중심으로 기술이전을 추진해 상용화를 도모할 계획이다.

김강호 ETRI 초성능컴퓨팅연구본부장은 “향후 새로운 과제기획을 통해 신경망처리장치(NPU)와 가속기 중심의 메모리 인터커넥트 기술 연구를 본격 확대할 계획”이라고 말했다.