(사진=셔터스톡) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인공지능(AI) 기반 검색이 기존 검색보다 10배 이상의 전력을 사용한다는 연구 결과가 나왔다.
벤처비트는 5일(현지시간) 미국 전력연구소(EPRI)가 발표한 연구 보고서 '지능 강화: 인공 지능 및 데이터센터 에너지 소비 분석'에서 AI 기반 검색 쿼리가 기존 검색 쿼리보다 10배의 전력이 필요한 것으로 분석했다고 전했다.
EPRI는 미국 데이터센터의 총 전력 소비량이 2030년까지 166%로 2배 이상 증가할 것으로 예상했다.
특히 대부분의 전력 소비는 주로 생성 AI에 의해 주도되고 있으며, 이는 전통적인 검색보다 쿼리당 기하급수적으로 더 많은 전력을 필요로 할 수 있다고 지적했다. EPRI는 챗GPT 쿼리당 2.9와트시(Wh)를 사용하는 AI 쿼리가 약 0.3Wh를 사용하는 전통적인 구글 검색 쿼리보다 10배의 전력이 필요한 것으로 추정했다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
보고서는 구글 검색, 챗GPT, 블룸(BLOOM) 및 AI 기반 구글 검색에 대한 사용 사례를 연구했다. 이 중 챗GPT가 AI 기반 쿼리 중에서 가장 에너지 소모가 적었다. 그러나 연구진은 구글의 AI 기능이 구글 검색에 통합될 경우, 검색당 전력 소모가 6.9~8.9Wh로 챗GPT보다 3배 이상 높아질 수 있다고 예상했다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이런 성장은 지역적인 문제를 야기한다. 2023년에 15개 주가 전국 데이터센터 부하의 80%를 차지했으며, 버지니아 주는 혼자서 25%를 차지했다. 예측에 따르면, 높은 성장 시나리오 하에서 2030년까지 버지니아 주의 데이터센터가 전체 전력 소비의 46%를 차지할 수 있다. 오리건, 아이오와, 네브래스카, 노스다코타, 네바다와 같은 다른 주에서도 데이터센터가 전체 전력 수요의 20% 이상을 차지할 것으로 예상된다.
AI 기반 애플리케이션에 대한 수요가 급증하면서 기업들은 엔비디아와 같은 공급업체로부터 최신 GPU 장착 서버를 확보하기 위해 안간힘을 쓰고 있다.
그러나 이러한 최첨단 장비를 손에 넣는 것만으로는 충분하지 않다. 하드웨어를 제때 조달하더라도 에너지 소모가 많은 시스템의 전력 요구 사항이 점점 더 중요한 문제로 대두되고 있다. 이는 AI 도입 경쟁이 단순히 적절한 하드웨어, 데이터 및 모델을 확보하는 것뿐만 아니라 데이터센터 용량을 보장하는 것도 포함된다는 것을 의미한다.
이런 환경에서 기업들은 데이터센터 조달 방식에 대한 근본적인 변화를 필요로 할 수 있다. 기존의 RFP를 발행하고 최저가 입찰 방식은 더 이상 유효하지 않을 수 있다.
한 업계 임원은 "많은 데이터센터 장비 공급업체들이 이제는 RFP에 응답하지 않고 있다"라며 "그들은 매달 또는 분기마다 일정 용량을 공급하는 방식으로 전환하고 있다. 10년 전에는 우리의 수익의 100%가 최저가 입찰 방식에서 나왔지만 오늘날에는 25%에 불과하라고 말했다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.