국내 최대 AI 컴퓨팅 인프라 확보
학습 기간 18개월→1.5개월
최수연 대표 "AI 자립·주권 뒷받침"
학습 기간 18개월→1.5개월
최수연 대표 "AI 자립·주권 뒷받침"
네이버가 엔비디아의 인공지능(AI) 가속기 ‘B200’ 4000장을 기반으로 국내 최대 규모의 인공지능(AI) 컴퓨팅 클러스터를 구축했다. B200은 엔비디아의 최신 설계 구조 ‘블랙웰’ 기반의 AI 가속기다. B200은 전작인 H100 대비 AI 학습 성능은 3배, 추론 모델 가동 성능은 15배 뛰어나다. 네이버는 이번 ‘B200 4K 클러스트’가 글로벌 상위 500위 수준의 슈퍼컴퓨터와 비교할 수 있는 수준의 컴퓨팅 규모라고 설명했다. 네이버는 AI 인프라를 기반으로 독자 파운데이션 모델 성능을 글로벌 수준으로 끌어올리고 이를 산업 현장에 투입한다는 계획이다.
8일 네이버에 따르면 이번 AI 컴퓨팅 클러스트를 통해 AI 모델 개발 전반의 속도와 유연성이 한층 강화됐다. 네이버가 내부 시뮬레이션을 진행한 결과 720억 개 매개변수(파라미터) 규모 모델을 학습할 때 기존 A100 기반 주력 인프라(2048장)로는 약 18개월이 걸렸지만 이번 클러스터에서는 약 한달 반 수준으로 단축됐다. 네이버는 학습 효율이 12배 이상 향상되면서 더 많은 실험과 반복 학습을 통해 모델의 완성도를 높일 수 있게 됐다고 설명했다. 다만 내부 시뮬레이션 결과이기 때문에 실제 학습 과제와 설정에 따라 소요 기간이 달라질 수 있다.
네이버는 이번 클러스트에 냉각과 전력, 네트워크 최적화 기술을 집약했다고도 강조했다. 2019년 엔비디아의 슈퍼컴퓨팅 인프라인 '슈퍼팟'을 세계에서 가장 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영하는 등 실증 경험을 축적한 바 있다. 네이버는 신속한 인프라 확장을 위해 서울 지역 임대 데이터센터에 ‘B200 4K 클러스터’를 구축했다.
네이버는 이번 클러스트를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에 속도를 낼 계획이다. 텍스트뿐만 아니라 이미지·비디오·음성을 동시에 처리하는 옴니모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고 이를 다양한 서비스와 산업 현장에 단계적으로 적용할 예정이다.
최수연 네이버 대표는 “이번 AI 인프라 구축은 단순 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보한 것”이라며 “네이버는 빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 유연하게 적용할 계획”이라고 말했다.
김성태 기자 kim@sedaily.com
[ⓒ 서울경제, 무단 전재 및 재배포 금지]
