AI 속도 경쟁에 반도체 비용 부담도 커져
이동수 네이버클라우드 하이퍼스케일 AI 이사는 14일 열린 '2024 코리아 인더스트리얼 AI 공동포럼'에 참석해 강연을 진행하고 있다./사진=김동훈 기자 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
"왜 네이버가 반도체까지 뛰어들 수밖에 없었는지 말씀드리겠습니다."
이동수 네이버클라우드 하이퍼스케일 AI 이사는 14일 한국산업기술진흥협회가 서울 서초구 엘타워에서 개최한 '2024 코리아 인더스트리얼 AI 공동포럼'에 참석해 "네이버는 자체 반도체 솔루션도 현재 개발하고 있다"며 이같이 말했다.
네이버는 지난 4월 카이스트(KAIST), 인텔과 손잡고 'AI 공동연구센터'(NIK AI Research Center)를 설립해 새로운 인공지능(AI) 반도체 생태계를 구축하기로 한 바 있다. 이들은 AI 반도체·서버와 클라우드·데이터센터 등의 성능 개선과 최적의 구동을 위한 오픈소스용 첨단 소프트웨어 개발 등을 위해 힘을 모으겠다는 계획을 발표했다.
이동수 이사는 "챗GPT를 사용할 때 0.1초 안에는 답변 중 한 단어가 나와야 덜 답답하다고 평가한다"며 "이를 구현하려면 빠르게 많은 데이터를 처리해야 하고, HBM(고대역폭메모리)과 같은 빠른 메모리가 필요하다. 이 때문에 관련 비용이 급상승하게 되는 까닭에 반도체에도 관심을 가지게 됐다"고 설명했다.
HBM은 여러 개의 D램 칩을 TSV(수직관통전극)로 연결해 데이터 처리 속도를 혁신적으로 끌어 올린 고부가가치 초고성능 D램을 말한다. GPU(그래픽처리장치)와 연결돼 AI의 학습과 생성 속도를 높이는 역할을 하며, 데이터센터에 설치되는 AI 컴퓨터의 핵심 반도체다.
문제는 AI 시장에서 고성능 반도체를 필요로 하는 트렌드가 늘어나고 있다는 점이다. 글로벌 AI 모델 사이에서 더 많고 다양한 유형의 정보를 빠르게 처리하는 경쟁도 지속되고 있다. 이 이사는 "LLM은 롱시퀀스(긴 질문과 긴 답변) 지원에 대한 요구가 증가하고 있다"며 "텍스트뿐 아니라 영상과 같은 것을 처리하는 '멀티 모달'의 시대가 되고 있기 때문"이라고 했다.
이에 따라 시장에선 HBM의 고도화가 빠르게 진행되고 있다. 현재 1세대 HBM, 2세대 HBM2, 3세대 HBM2E, 4세대 HBM3를 거쳐 현재 5세대 HBM3E까지 개발됐으며, 삼성전자·SK하이닉스는 HBM4를 개발하고 있다. 이들 HBM은 엔비디아, 인텔, AMD의 GPU 모듈에 사용되고 있다.
이 이사는 "전세계에서 LLM(거대언어모델)의 최적화·경량화 기술 발전의 전쟁이 진행되고 있다"며 "그만큼 전세계 AI 사업자들이 비용에 대한 문제를 안고 있는 것"이라고 지적했다. 네이버와 카이스트, 인텔의 'AI 공동연구센터'도 AI 반도체의 경량화·최적화에 관한 연구 비중을 전체의 50% 수준으로 진행할 방침이다.
그는 "AI 서비스 비용이 내려가야 지속성장하는 AI가 가능하다"며 "인터넷이 그랬듯 스타트업도, 집에서도, 누구나 도전할 수 있는 AI가 가능해야 진정한 의미의 패러다임 시프트(대전환)가 이뤄질 것"이라고 전망했다.
지난 5월 개최 이후 2회째를 맞이한 '코리아 인더스트리얼 AI 공동포럼'은 산기협을 비롯해 서울대 AI연구원, 네이버클라우드, 포스코홀딩스, LG AI연구원 등 5개 기관이 공동 주최했으며, AI 분야 이슈와 기술 동향을 공유하고 국내 AI 산업의 발전 방안을 모색하기 위해 마련됐다.
ⓒ비즈니스워치(www.bizwatch.co.kr) - 무단전재 및 재배포금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.