컨텐츠 바로가기

09.12 (목)

검색 엔진의 10배 전력 소모... '생성형 AI', 어떻게 해결할까

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[정혜 digitalpeep] [smartPC사랑=정혜 digitalpeep] 전 세계가 이상 기후로 어려움을 겪는 가운데, 올해 여름의 무더위는 지구를 뜨겁게 달구었다. 우리나라 역시 175년 만에 찾아온 찜통더위로 에어컨 없이 생활하기 어려운 상황이다. 이렇듯 기후 위기로 인한 어려움이 커질수록 에너지 소비가 늘어나는 상황에서, '생성형 AI'의 에너지 문제가 주목받고 있다.

현재 IT 업계에서 '생성형 AI'는 큰 관심을 받고 있으며, 미래 성장 가능성이 높은 유망한 산업이다. 우리나라도 AI 기본법 제정을 통해 산업진흥을 위한 제도적 지원이 마련되기를 기대하고 있다. 구글 클라우드 생성형 AI 도입 효과 분석 보고서에 따르면 기업 책임자의 대다수(98%)가 AI의 전략적 중요성을 인식하고 있으며, 약 65%가 투자를 늘릴 계획이라고 답했다.

'생성형 AI' 구동을 위해 컴퓨터의 복잡한 연산처리 과정 필요

​생성형 AI의 가장 큰 문제점 중 하나는 기존 검색 엔진보다 훨씬 많은 전력을 소모한다는 점이다. 이는 생성형 AI가 대규모 데이터를 처리하고, 복잡한 연산을 수행하기 위해 많은 양의 전력을 필요로 하기 때문이다.

우리가 챗GPT에 질문을 한 번 할 때 소모하는 전력량은 기존 인터넷 서비스의 약 10배에 달한다. 예를 들어 구글 검색엔 평균 0.3Wh의 전력이 쓰이는 반면 챗GPT는 한 번에 2.9Wh를 소모한다. 이미지 생성 AI가 이미지 하나를 만들 때마다 스마트폰 한 대를 충전할 수 있는 양의 에너지가 필요하다.

실제로 국제에너지기구(IEA)에 따르면 생성형 AI가 본격적으로 개발되고 상용화된 2022년에 세계의 데이터 센터가 썼던 연간 전력량은 460 테라와트시(TWh)에 달했다. 2015년(200TWh)의 두 배 이상으로 증가했다. IEA는 2026년 데이터 센터들이 전 세계적으로 800TWh 이상 전력을 소비할 것으로 추정한다.

빅테크들은 앞으로 다가올지도 모를 전력 부족 대비에 나서며 데이터센터 구축에 힘을 쏟고 있다. 아마존은 지난 3월 초 인근 원자력발전소에서 전력을 공급받는 데이터센터를 6억 5000만 달러에 인수했고, 엔비디아 젠슨 황 CEO는 지난 3월 데이터센터 인프라 구축에 1조 달러(약 1339조 원)를 투입하겠다 밝혔다.

이에 IEA는 미국 데이터센터의 전력 소비가 2026년까지 총 수요의 4%에서 6%로 증가할 것으로 예상하며 "데이터센터의 에너지 소비 급증을 완화하려면 최신 규정과 기술 개선이 중요할 것"이라 덧붙였다.

다가올 미래 사회에서는 인공지능(AI)이 과도한 에너지 소비로 지구의 생태 환경에 미치는 영향을 최소화하면서 AI의 역량을 키워내야 한다는 두 가지 과제를 안고 있다. 이 문제는 기업뿐 아니라 정부와 기업들이 적극적으로 해결해야 할 과제이다.

스마트PC사랑

Unsplash의Solen Feyissa



AI 구동이 생태 환경에 미치는 문제

영국 서레이 대학 사이버 보안 교수 알란 우드워드는 IT 전문지 와이어드(wired)와의 인터뷰에서 "인터넷 콘텐츠를 색인화하고 검색하는 데 이미 막대한 자원이 사용되고 있다. 하지만 AI를 결합하면 전혀 다른 수준의 화력이 필요하다"라고 강조했다. 또 "컴퓨팅 성능과 스토리지 공간은 물론, 효율적인 검색도 필요하다. 온라인 처리가 진화할 때마다 대형 데이터센터의 전력 및 냉각 요구량은 크게 증가한다. AI 지원 검색이 그런 단계 중 하나가 될 수 있다고 생각한다"라고 말했다.

오픈 AI와 구글은 자사 제품의 컴퓨팅 비용을 공개하지 않았지만, 한 연구팀은 GPT-3 훈련이 1,287MWh의 전력을 소비하고 550톤 이상의 이산화탄소를 배출했을 것으로 추정했다. 이는 한 사람이 뉴욕과 샌프란시스코를 550번 왕복하는 것과 같은 양이다.

캐나다 데이터센터 전문업체 큐스케일(Qscale)의 공동 설립자 마틴 보처드는 생성형 AI 기반의 검색을 지원하려면 "최소한 검색 한 건당 4~5배의 컴퓨팅 성능이 필요"할 것으로 추정했다. 또 ChatGPT의 학습 지식은 연산 처리의 부하를 줄이기 위해 현재 2023년 9월까지로 한정되어 있다.

검색 엔진 사용자의 요구를 만족하기 위해서는 지속적으로 정보를 업데이트하며 정확한 정보를 제공할 수 있어야 하는데 최신정보 및 지식을 제공하기 위해 ChatGPT의 새로운 학습이 필요하다. 보처드는 "만약 모델을 자주 재훈련시키고 더 많은 파라미터 등을 추가하면 완전히 다른 규모가 된다"라고 덧붙였다.

2030 탄소 네거티브를 목표로 한 마이크로소프트

이런 맥락에서 주의 깊게 봐야 할 것은 생성형 AI 기반의 검색 서비스가 구글과 마이크로소프트의 지속 가능성 목표에 미치는 영향이다. 예를 들어, 마이크로소프트는 2030년까지 탄소 배출량보다 제거량이 더 많은 '탄소 네거티브(Carbon Negative)를 달성하겠다고 공언했다.

​그리고 2050년까지 마이크로소프트 설립 이후 전기 소비를 통해 직간접적으로 배출한 모든 탄소를 상쇄할 계획이다. 구글은 2030년까지 자사 운영과 가치망 전반에 걸쳐 넷제로(Net-Zero)를 달성하겠다고 약속했다. 생성형 AI의 에너지 사용량이 급증하면서 두 기업의 지속 가능성 목표에 부담이 될 수 있다.

이미 상용화되어 새로운 비즈니스 모델로 떠오르고 있는 '생성형 AI'가 빅테크 기업들의 탄소 네거티브 목표 달성에 어떤 영향을 미칠지, 기업들은 이를 달성하기 위해 어떤 방향으로 나아갈지 귀추가 주목된다.

AI가 에너지 효율을 높이는 방법이라는 주장

한편 "AI의 에너지 사용에 대한 우려에 대한 재고"라는 제목의 본 연구 자료는 AI가 이러한 중요한 요구를 해결하는 데 어떻게 큰 역할을 할 수 있는지, 그리고 이미 많은 경우에 큰 역할을 하고 있는지에 대해 조사한 내용을 공개하고 있다.

워싱턴에 위치한 과학 기술 정책 전문 싱크탱크인 정보기술혁신재단(ITIF)의 이 연구는 수십 개의 출처를 인용하여 정부가 여러 산업 분야에서 에너지 효율성을 높이는 중요한 새 도구로서 오히려 AI 채택을 가속화할 것이라고 하며 AI는 "탄소 배출을 줄이고, 청정에너지 기술을 지원하며, 기후 변화에 대처하는 데 도움이 될 수 있다"라고 말한다.

본 보고서는 머신러닝이 이미 여러 분야에서 환경에 미치는 영향을 줄이는 데 도움을 주고 있는 방법을 설명하고 있다.

농부들은 비료와 물 사용을 줄이기 위해 AI를 사용하고 있다.

전력회사는 전력망의 효율성을 높이기 위해 AI를 도입하고 있다.

물류 업체에서는 배송 경로를 최적화하여 차량의 연료 소비를 줄이고 있다.

공장에서는 폐기물을 줄이고 에너지 효율을 높이기 위해 이를 도입하고 있다.

[nvidia Korea 블로그 중]

이 연구에서는 이 외에도 다양한 방식으로 AI가 에너지 효율성을 향상시킨다고 이야기하고 있다. 따라서 정책 입안자들에게 "환경과 관련하여 AI가 문제의 일부가 아니라 해결책의 일부가 되도록 해야 한다"라고 촉구하고 있다.

​또한 "공공 부문이 보다 효율적인 디지털 서비스, 스마트 시티 및 빌딩, 지능형 교통 시스템, 그리고 기타 AI를 활용한 효율성을 통해 탄소 배출을 줄일 수 있도록" 정부 기관 전반에 걸쳐 AI를 광범위하게 채택할 것을 추천하고 있다.

스마트PC사랑

기후 변화에 대응하기 위한 전략적 도구로 꼽히고 있는 AI [NVIDIA 블로그]

<이미지를 클릭하시면 크게 보실 수 있습니다>



디지털 생태계 전반의 협업을 통해 지속 가능한 AI 개발 촉진 필요

하지만 AI가 여러 분야에서 에너지 효율을 개선하는 데 도움이 될 수 있더라도, '생성형 AI'를 구동하는데 필요한 막대한 전력과 그로 인한 탄소 배출 문제는 여전히 남아 있다. AI가 기존의 시스템에 효율적인 방법론을 제시할 수 있지만, 그 과정에서 필요로 하는 전력 소비와 탄소 배출 문제를 해결하기 위해 기술적 방법론과 함께 사회적 규제가 마련되어야 할 것이다.

현재 디지털 생태계 전반의 협업을 통해 지속 가능한 AI 개발에 대한 논의가 진행 중이다. 생성형 AI는 GPU(그래픽 처리 장치로서 컴퓨터 시스템에서, 그래픽 연산을 빠르게 처리하여 결과값을 모니터에 출력하는 연산 장치)를 기반으로 하고 있으나 에너지 효율이 높은 CPU(컴퓨터의 중앙처리장치)는 복잡한 AI 애플리케이션의 급속한 확장으로 인해 급증하는 전력 수요에 대비할 수 있다는 연구가 진행 중이다.

스케일웨이(Scaleway)나 오라클 같은 기업은 기존 GPU에 대한 의존도를 획기적으로 줄이는 CPU 기반 AI 추론 방법을 구현하고 있다고 한다. 또한 AI 플랫폼 연합과 같은 산업 단체는 협업을 통해 에너지 효율과 성능을 향상시키는데 중점을 두고, AI 애플리케이션용 CPU 기술을 발전시키는 데 중요한 역할을 하고 있다. 이 연합에는 CPU, 가속기, 서버, 소프트웨어 등 다양한 업체가 참여하여 특정 AI 과제를 해결하는 상호 운용 가능한 솔루션을 개발하고 있다. 이런 작업은 엣지 컴퓨팅에서 대규모 데이터센터에 이르기까지 광범위하게 이뤄지며, AI 배포가 지속 가능하고 효율적으로 이루어지도록 하는 데 필요한 연구이다.

현재 빅테크 기업들이 상용화에 박차를 가하고 있는 '생성형 AI'는 개인정보보호와 저작권 등 기존의 문제점 외에도 기후 위기 관련해서도 문제를 내포하고 있다. 이와 관련하여 아직까지 뚜렷한 해결책이 제시되지 않은 상황이며 기술적 해결책을 위한 연구가 진행 중이라고는 하지만 새로운 비즈니스 모델로 '생성형 AI'를 바라보는 기업의 입장이 아닌 기후 위기의 관점에서 에너지 소비를 줄이기 위해 모두의 노력이 필요한 시점이다.

<이 기사는 digitalpeep님의 네이버 블로그에도 실렸습니다.>

<저작권자 Copyright ⓒ 스마트PC사랑 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.