컨텐츠 바로가기

11.28 (목)

이슈 인공지능 시대가 열린다

'엔비디아 대항마' 토종 AI 가속기 개발

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
KAIST 정명수 교수팀
"속도 2.36배 빠른 GPU"


파이낸셜뉴스

KAIST 정명수 교수팀이 기존 GPU 메모리 확장 기술보다 2.36배 빠른 AI 가속기를 개발했다. KAIST 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


한국과학기술원(KAIST) 전기 및 전자공학부 정명수 교수팀이 엔비디아(NVIDIA)에 맞설 차세대 인터페이스 기술이 활성화된 고용량·고성능 AI 가속기를 개발했다. 정 교수가 창업한 반도체 팹리스 스타트업 '파네시아(Panmnesia)'의 초고속 컴퓨터 연결 링크(CXL) 컨트롤러와 CXL-그래픽 처리장치(GPU) 프로토타입을 활용해 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행했다.

8일 KAIST에 따르면 연구진은 이를 위해 CXL이 활성화된 고용량 GPU 장치의 메모리 읽기·쓰기 성능 저하 원인을 분석해 개선하는 기술과 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 정 교수는 "CXL-GPU의 시장 개화 시기를 가속해 대규모 AI 서비스를 운영하는 빅테크 기업의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 수 있을 것"이라고 말했다.

최신 GPU의 내부 메모리 용량은 수십 기가바이트(GB)에 불과해 단일 GPU만으로는 모델을 추론·학습하는 것이 불가능하다.

대규모 AI 모델이 요구하는 메모리 용량을 제공하기 위해 업계에서는 일반적으로 GPU 여러 대를 연결하는 방식을 채택하지만, 이 방법은 최신 GPU의 높은 가격으로 인해 총소유비용(TCO)을 과도하게 높이는 문제를 일으킨다.

연구진은 CXL-GPU 장치의 메모리 읽기·쓰기 성능이 저하되는 원인을 분석해 이를 개선하는 기술을 개발했다. 메모리 확장 장치가 메모리 쓰기 타이밍을 스스로 결정할 수 있는 기술을 개발해 GPU 장치가 메모리 확장 장치에 메모리 쓰기를 요청하면서 동시에 GPU 로컬 메모리에도 쓰기를 수행하도록 설계했다. 그 결과, GPU는 메모리 쓰기 작업의 완료 여부가 확인될 때까지 기다릴 필요가 없이 바로 쓰기가 실행돼 성능 저하 문제를 해결했다.

또 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 이 기술을 활용하면 메모리 확장 장치가 메모리 읽기를 더 빨리 시작한다. 이에따라 GPU 장치가 실제 데이터를 필요로 할 때는 캐시 메모리에서 데이터를 읽어 더욱 빠른 메모리 읽기 성능을 달성할 수 있다. 연구진은 이번에 개발한 기술을 오는 7월 산타클라라 USENIX 연합 학회와 핫스토리지의 연구 발표장에서 결과를 선보인다.

monarch@fnnews.com 김만기 기자

Copyrightⓒ 파이낸셜뉴스. 무단전재 및 재배포 금지.

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.