컨텐츠로 건너뛰기
검색
노컷뉴스 언론사 이미지

ETRI, 초대형AI 메모리 부족 현상 해결하는 확장 기술 개발

노컷뉴스 대전CBS 인상준 기자
원문보기

ETRI, 초대형AI 메모리 부족 현상 해결하는 확장 기술 개발

속보
'내란 우두머리' 결심 잠시 휴정…오후 2시 재개
ETRI 연구진이 옴니익스텐드 기반 메모리 풀 환경에서 AI 학습 성능을 분석하고 있다. ETRI 제공

ETRI 연구진이 옴니익스텐드 기반 메모리 풀 환경에서 AI 학습 성능을 분석하고 있다. ETRI 제공



한국전자통신연구원(ETRI)은 초대형 AI 학습에서 가장 큰 문제로 꼽히는 GPU의 메모리 한계와 데이터 병목 현상을 해결하는 새로운 메모리 기술 '옴니익스텐드(OmniXtend)'를 개발했다고 8일 밝혔다.

ETRI에 따르면 최근 초대형 AI 모델과 고성능 컴퓨팅(HPC) 수요가 급격히 증가하면서, 처리해야 할 데이터 규모도 폭발적으로 커지고 있다. 그러나 GPU 성능이 아무리 향상되더라도, 메모리 용량이 충분하지 않으면 연산 효율이 급격히 떨어지는 '메모리 장벽' 문제는 여전히 해결 과제로 남아 있다.

ETRI가 개발한 옴니익스텐드는 표준 네트워크 기술인 이더넷(Ethernet)을 활용해 여러 서버와 가속기 각각의 메모리를 하나의 대용량 메모리처럼 공유하는 기술이다.

각 장비에 개별적으로 존재하던 메모리를 네트워크 전반으로 확장해, AI 학습에 필요한 메모리를 원하는 만큼 유연하게 확보할 수 있는 구조를 구현했다.

ETRI의 옴니익스텐드는 확장형 메모리 공유 구조를 이더넷 기반으로 구현해 초대형 AI 학습의 성능과 확장성, 경제성을 동시에 확보했다.

데이터 이동 지연을 최소화함으로써 AI 학습 속도가 향상됐으며, 서버 교체 없이 메모리를 확장할 수 있어 데이터센터 구축·운영 비용 절감 효과도 기대된다.


특히 옴니익스텐드는 이더넷 스위치를 활용해 물리적으로 떨어진 다수의 장비를 하나의 메모리 풀로 묶을 수 있어, 초대규모 AI 환경에 적합한 고확장성 시스템 구조로 평가받고 있다.

ETRI 연구진은 실제 시연을 통해 이더넷 환경에서 여러 장비가 공유 메모리 풀을 구성하고 실시간으로 서로의 메모리에 접근하는 모습을 확인했다.

또 메모리 용량이 부족한 환경에서는 LLM 추론 성능이 크게 저하된 반면, 이더넷 기반으로 메모리를 확장한 경우 성능이 2배 이상 회복됐다.


ETRI는 향후 데이터센터 하드웨어·소프트웨어 기업을 중심으로 기술이전을 추진해 상용화할 계획이다.

ETRI 김강호 초성능컴퓨팅연구본부장은 "새로운 과제기획을 통해 신경망처리장치(NPU)와 가속기 중심의 메모리 인터커넥트 기술 연구를 본격 확대할 계획"이라며 "글로벌 AI·반도체 기업의 차세대 시스템에 본 기술이 적용될 수 있도록 기술 고도화와 국제 협력을 지속하겠다"고 말했다.

※CBS노컷뉴스는 여러분의 제보로 함께 세상을 바꿉니다. 각종 비리와 부당대우, 사건사고와 미담 등 모든 얘깃거리를 알려주세요.
  • 이메일 : jebo@cbs.co.kr
  • 카카오톡 : @노컷뉴스
  • 사이트 : https://url.kr/b71afn


진실은 노컷, 거짓은 칼컷

저작권자 © CBS 노컷뉴스 무단전재 및 재배포 금지