컨텐츠로 건너뛰기
검색
이코노믹리뷰 언론사 이미지

AWS "고객 데이터센터를 AI 기지로"... 'AI 팩토리' 출시

이코노믹리뷰
원문보기

AWS "고객 데이터센터를 AI 기지로"... 'AI 팩토리' 출시

속보
홍명보 "유럽·남미 강호 피했지만 홈팀 멕시코 상대 부담"
[최진홍 기자] 아마존웹서비스(AWS)가 고객의 자체 데이터센터 내에 전용 AI 인프라를 직접 구축하고 관리해주는 새로운 서비스 'AWS AI 팩토리(AWS AI Factories)'를 공개했다. 데이터 보안과 주권(Sovereignty) 문제로 퍼블릭 클라우드 전면 도입을 주저해 온 정부 기관과 규제 산업군을 적극 공략하겠다는 전략이다.

AWS는 미국 라스베이거스에서 열린 'AWS 리인벤트 2025(AWS re:Invent 2025)'에서 이 같은 내용을 발표하며, 기업과 정부가 복잡한 인프라 구축 과정 없이도 고성능 AI 환경을 즉시 확보할 수 있도록 지원하겠다고 밝혔다.

AWS AI 팩토리는 고객이 보유한 데이터센터 공간과 전력을 활용하되, 그 안에 AWS가 직접 설계한 하드웨어와 소프트웨어 스택을 설치하여 마치 '프라이빗 AWS 리전'처럼 운영하는 방식이다. 이를 통해 고객은 데이터가 물리적으로 자사 시설 내에 머무르게 함으로써 엄격한 데이터 주권 및 규제 요구사항을 충족할 수 있다.

통상적으로 기업이 자체 AI 역량을 구축하려면 GPU 확보부터 데이터센터 설계, 전력 수급, 모델 라이선스 계약 등 수년에 걸친 막대한 자본 투자와 복잡한 조달 과정을 거쳐야 했다. AWS는 AI 팩토리를 통해 이러한 진입 장벽을 대폭 낮췄다. 고객은 엔비디아의 최신 AI 가속기나 AWS의 자체 칩인 트레이니움(Trainium)을 선택해 인프라를 구성할 수 있으며, 아마존 베드록(Amazon Bedrock)과 같은 관리형 AI 서비스도 로컬 환경에서 지연 시간 없이 이용할 수 있게 된다.


특히 이번 발표에서는 엔비디아와의 협력 강화가 눈에 띄었다. AWS AI 팩토리는 엔비디아의 최신 '그레이스 블랙웰' 및 차세대 '베라 루빈' 플랫폼을 지원하며, 향후 AWS의 차세대 AI 칩인 트레이니움4와 엔비디아의 고속 인터커넥트 기술인 NV링크 퓨전까지 통합 지원할 예정이다.

이안 벅 엔비디아 하이퍼스케일·HPC 부문 부사장은 "대규모 AI 구현을 위해서는 GPU뿐만 아니라 전체 소프트웨어 스택의 최적화가 필수적"이라며 "AWS AI 팩토리는 엔비디아의 아키텍처와 AWS의 인프라 운영 노하우를 결합해 고객이 인프라 통합이 아닌 AI 혁신 자체에 집중할 수 있게 한다"고 강조했다.


실제 적용 사례도 함께 공개됐다. AWS는 사우디아라비아의 기술 기업 휴메인(HUMAIN)과 협력해 사우디 현지에 대규모 'AI 존'을 구축 중이다. 휴메인의 데이터센터 내에 구축되는 이 AI 팩토리는 최대 15만 개의 AI 칩(GB300 포함)이 투입되는 기가와트급 규모로, 중동 지역의 AI 컴퓨팅 수요를 감당하는 핵심 허브가 될 전망이다.

업계에서는 이번 AWS의 행보를 두고 클라우드 밖의 '온프레미스(On-premise)' 시장까지 클라우드 생태계로 포섭하려는 강력한 의지로 해석하고 있다. AWS는 20년에 달하는 데이터센터 운영 경험을 앞세워, 보안이 생명인 공공 및 금융, 의료 분야의 AI 전환 속도를 한층 끌어올릴 것으로 보인다.

<저작권자 Copyright ⓒ ER 이코노믹리뷰 무단전재 및 재배포 금지>