[인더AI] ‘AI 인프라 전쟁’ 속도전 돌입… 한국, 주권형 AI 허브로 부상
3일 서울 코엑스 오디토리움에서 열린 ‘SK AI 서밋 2025’에서 세계 주요 기업들이 ‘AI 인프라 투자: 지능의 기반을 세우다’를 주제로 토의했다. 인공지능(AI)이 산업혁명의 다음 단계로 진입했다는 공감대 속에, 데이터센터·전력·반도체·네트워크가 결합된 ‘AI 팩토리(AI Factory)’ 개념이 구체적 실체로 제시됐다. 패널로는 브룩필드애셋매니지먼트, 크루소, 슈나이더일렉트릭, 슈퍼마이크로, 펭귄솔루션즈, 엔비디아 등 6개 기업의 경영진이 참여했다.
모더레이터를 맡은 박준우 브룩필드애셋매니지먼트 한국총괄 대표는 “AI는 19세기 증기기관, 20세기 전기와 같은 범용 혁신 기술”이라며 “AI 자동화가 연간 10조달러의 생산성을 만들어낼 것이지만, 이를 가능하게 하려면 향후 10년간 최소 7조달러 규모의 인프라 투자가 필요하다”고 말했다.
그는 “상위 5대 하이퍼스케일러의 연간 자본지출이 이미 4000억달러를 넘어섰다”며 “AI는 더 이상 알고리즘 산업이 아니라 자본, 전력, 송전, 냉각, 반도체 설비까지 아우르는 물리적 인프라 산업으로 전환됐다”고 강조했다.
브룩필드는 전 세계 260기가와트(GW) 규모의 재생에너지를 운영 중이며, 마이크로소프트와 10GW, 구글과 3GW의 전력 공급 계약을 맺었다. 박 대표는 “AI 팩토리 시대의 인프라 투자는 데이터센터가 아니라 발전소와 송전망에서부터 시작된다”고 말했다.
체이스 로크밀러(Chase Lochmiller) 크루소(Crusoe) CEO는 ‘AI 팩토리의 물리적 구현’을 실증 사례로 설명했다.
그는 “오픈AI가 목표로 한 ‘매주 1GW급 인프라 생산 공장’의 비전을 현실로 옮긴 것이 크루소의 미션”이라며 “기존 3~5년이 걸리던 데이터센터를 1년 만에 완공했다”고 밝혔다.
미국 텍사스 애빌린(Abilene)에 건설된 ‘스타게이트(Stargate) 프로젝트’는 1기가와트 규모 전력으로 40만개의 엔비디아 블랙웰(B2) GPU를 구동한다.
로크밀러는 “에너지는 이동이 어렵지만 데이터는 옮길 수 있다. AI 팩토리는 전력 근처에 지어야 한다는 단순한 원리가 프로젝트의 핵심”이라며 “AI 팩토리는 인류가 지은 가장 거대한 ‘지능 생산 공장’이며, 이는 단순한 데이터센터를 넘어 인류의 생산수단이 바뀌는 전환점”이라고 말했다.
이어 “크루소는 현재 45기가와트 이상의 신규 전력 프로젝트를 추진 중”이라며 “AI 산업이 향후 전력 인프라의 최대 수요처이자 투자 촉매가 될 것”이라고 덧붙였다.
에너지 관리 분야를 대표한 슈나이더일렉트릭의 짐 시모넬리(Jim Simonelli) CTO는 “AI 데이터센터는 이제 건물이 아니라 시스템으로 설계돼야 한다”고 강조했다.
그는 “AI 팩토리를 짓는 세 가지 원칙은 밀도를 높이고(Dense), 고온으로 운영하며(Hot), 전력망과 조화롭게 유지하는(Steady) 것”이라며 “AI 연산이 GPU당 3.6킬로와트, 랙당 150킬로와트를 넘어서면서 효율적 전력전달과 냉각이 생존의 조건이 됐다”고 말했다.
시모넬리는 “우리가 다루는 것은 더 이상 IT 장비가 아니라 전자(電子) 그 자체다. 하나의 전자를 낭비하지 않고 연산에 도달시키는 것이 에너지 기업의 역할”이라고 했다. 그는 데이터센터의 새로운 경쟁 단위를 ‘토큰(Token) 생산 효율’로 정의하며 “AI 경제에서 승자는 동일한 전력으로 더 많은 토큰을 생산하는 국가와 기업”이라고 말했다.
클레이 시먼스(Clay Simmons) 슈퍼마이크로(Supermicro) 부사장은 “AI 팩토리의 심장은 서버와 냉각 기술, 그리고 랙 설계에 있다”며 SK텔레콤과 함께 구축한 ‘하인(Haein) 주권형 AI 데이터센터’ 사례를 소개했다.
그는 “2025년 8월 가산에 완공된 하인 데이터센터는 슈퍼마이크로, 엔비디아, 펭귄솔루션즈, VAST데이터가 협력해 만든 한국형 AI 인프라의 시범 사례”라고 설명했다.
슈퍼마이크로는 자사 모듈형 아키텍처인 DCBBS(Data Center Building Block Solution)를 통해 공랭식 블랙웰 GPU 클러스터를 단기간에 배치했다.
시먼스 부사장은 “모든 시스템은 공장 단계에서 완전 조립·테스트된 상태로 랙 단위 출하된다. 항공편으로 바로 운송해 현장에 도착한 후 수일 내 가동된다”며 “우리는 이를 TTO(Time To Online)라 부른다. AI 인프라의 핵심 경쟁력은 얼마나 빨리 지능이 켜지는가에 있다”고 말했다.
그는 또 “DLC2(Direct Liquid Cooling v2)는 45도 온수를 재활용해 냉각장치와 팬 소음을 줄이고 에너지 비용을 크게 절감한다”고 덧붙였다.
마크 시먼스(Mark Seamans) 펭귄솔루션즈(Penguin Solutions) 부사장은 통합 시스템 구축과 관련해 “하인 클러스터는 GPU 1000여개, 스토리지 10페타바이트(10PB), 광케이블 50마일(80킬로미터)을 연결한 완전 통합형 AI 트레이닝 시스템”이라며 “단 60일 만에 완전 상용화됐다”고 말했다.
그는 “단순 하드웨어 조립을 넘어 쿠버네티스 기반의 ‘페타시스(Petasys) AI 클라우드’ 소프트웨어를 통합해 GPU as a Service 환경을 구현했다”며 “이제 한국은 단순한 AI 수요국이 아니라 AI 클라우드 서비스를 자체 운영하는 공급국으로 진입했다”고 밝혔다. 펭귄은 향후 대규모 추론(Inference) 시스템과 RTX6000 기반 경량형 인퍼런스 노드를 병행 구축할 계획이다.
마지막 연사로 나선 크리스 페넌스(Chris Penrose) 엔비디아(NVIDIA) 부사장은 AI 인프라를 ‘국가의 지능망’으로 정의했다.
그는 “AI 인프라는 경제 성장, 공공 서비스, 연구, 국방을 동시에 지탱하는 새로운 동맥”이라며 “텔코(통신사)는 보안·프라이버시·규제 경험을 갖춘 유일한 인프라 사업자로, 주권형 AI 클라우드 구축의 핵심 파트너”라고 말했다.
페넌스는 “전 세계 24개 통신사가 엔비디아와 함께 주권형 AI 인프라 구축에 착수했으며, 한국은 그중 핵심 허브”라고 밝혔다. 이어 “SK그룹과 협력해 5만개 이상의 GPU로 구성된 AI 팩토리를 설계 중이며, 이를 통해 칩 설계, 디지털 트윈, 로보틱스, AI 에이전트 개발을 병행하고 있다”고 덧붙였다.
그는 또 “AI 인프라는 중앙 학습과 분산 추론이 결합된 ‘AI 그리드(AI Grid)’로 발전할 것”이라며 “엔비디아는 블랙웰(Blackwell) 대비 25배 성능 향상의 루빈(Rubin) 아키텍처를 2026년 공개하고, 2028년에는 패맨(Famine)으로 확장할 계획”이라고 밝혔다.
한편, 패널 토의에서는 AI 인프라의 지속가능성과 한국의 경쟁력에 대한 논의가 이어졌다.
시먼스는 “DLC2 냉각 기술이 전력 소비와 탄소 배출을 근본적으로 줄이는 해법”이라고 했고, 로크밀러는 “AI 산업이 소형모듈원자로(SMR)와 지열 발전 같은 차세대 청정에너지 투자를 촉진할 것”이라고 말했다. 페넌스는 “AI 인프라 경쟁은 속도의 문제이며, 한국은 반도체·통신·에너지 산업을 한 축으로 통합할 수 있는 드문 국가”라며 “AI 주권 인프라의 선도자가 될 모든 조건을 갖췄다”고 평가했다.
패널들은 AI 인프라 구축은 더 이상 선택이 아니라 생태계 생존의 문제라며 AI를 가동시키는 속도가 국가 지능 경쟁력의 척도라고 입을 모았다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
