벨기에 생길랭(Saint-Ghislain)에 있는 구글 데이터센터의 모습. 구글 데이터센터 제공 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
지금은 생성형 인공지능(AI) 붐이 전력 소비를 급증시킬 것이라는 우려가 널리 퍼졌지만, 2019년까지도 그렇지 않았다. 그해 6월 경제협력개발기구(OECD) 산하 국제에너지기구(IEA)는 인공지능이 에너지 효율성을 높인다고 환영했다. 영국의 한 스타트업이 개발한 인공지능은 기존 에너지 관리 시스템에서 얻은 데이터를 기상 조건과 결합해서 24시간 전에 건물의 에너지 사용량을 예측하고 실시간으로 최적화한다. 에너지를 덜 쓰는 효율적인 출퇴근 경로를 제안하는 스마트폰 앱처럼 개개인이 인공지능을 활용하는 방법도 소개했다.
구글이 자회사인 딥마인드와 함께 개발한 재생에너지 관리 인공지능도 국제에너지기구가 부각한 스타였다. 2017년 자사 전력 소비를 100% 재생에너지로 전환한 구글은 재생에너지 발전설비에서 발전하는 한편, 전력시장에서 재생에너지 전력을 구매하고 있었다. 인공신경망으로 최대 36시간 전에 자체 발전량을 정확하게 예측할 수 있는 모델을 개발했다. 또 전력 소비가 정점이 되는 시기도 파악할 수 있었다. 덕분에 자체 재생에너지 발전소에서 생산한 전력을 외부에 판매하고, 전력 소비 피크도 조정해 외부에서 전력을 구매할 필요가 없는 시스템을 갖췄다.
전력수요 감당할 수 있다는데
하지만 인공지능 개발자들은 달리 생각하기 시작했다. 2019년 7월 구글이 전해 발표한 매개변수 1.1억개 규모 언어모델 버트(BERT)를 훈련시키는 데, 한 사람이 대륙간 비행을 할 때 사용하는 만큼의 에너지가 소모될 것이라는 추정이 발표됐다. 2020년 10월 구글이 모든 영문 검색에 버트를 사용하기 시작한 이래 구글의 전력 사용량 중 15%가 인공지능 작동에 소요됐다. 2021년 구글의 연구자들은 매개변수 1750억개 규모인 오픈에이아이의 지피티(GPT)-3 모델을 훈련할 때 소모한 전력이 1.3기가와트시, 즉 대형 원전의 1시간 발전량 정도 될 것이라고 추정했다. 전력 소비와 이산화탄소 배출 문제를 염려하는 개발자들이 늘어났다. 미국의 컨설팅회사 액센츄어의 개발자는 재생에너지 사용률이 높은 시간대의 데이터센터들을 번갈아 사용해서 언어모델을 훈련시키는 기법을 소개하기도 했다.
개발자들의 우려가 사회적으로 확산된 계기는 챗지피티의 대중화였다. 2023년 3월 한달 동안 챗지피티 사용 횟수가 15억회를 넘겼고, 마이크로소프트가 코파일럿 서비스(마이크로소프트 프로그램 보조 기능)를 무료로 공개했다. 비트코인 채굴에 쓰이는 전력량을 추정하면서 명성을 얻은 알렉스 드브리스는 지난해 10월 관련 논문을 출간했다. 그는 2027년까지 엔비디아 등이 공급하는 인공지능용 신규 서버가 소비하는 전력만 따져도 매년 85.4~134테라와트시가 증가할 것으로 예상했다.
올해 1월에 발표된 국제에너지기구의 전력보고서는 드브리스의 예상을 대거 수용했다. 현재 구글 검색은 1회당 평균 0.3와트시, 챗지피티는 요청 1건당 2.9와트시를 사용하니, 매일 인공지능이 90억건을 검색하면 연간 10테라와트시에 가까운 추가 전력이 필요하다는 것이다. 국제에너지기구는 2022년 전세계 데이터센터가 460테라와트시의 전력을 사용했는데 2026년에는 620~1050테라와트시까지 늘어날 것으로 예측했다. 1기가와트급 대형 원전이 1년에 최대 8.8테라와트시를 발전할 수 있으니 최소한 대형 원전 20기 정도의 전력이 추가로 필요한 셈이다.
인공지능이 사용할 전력 수치에만 집중하면 전력난이 걱정스럽다. 하지만 국제에너지기구는 2026년까지는 인공지능과 전기자동차 등등을 포함한 모든 추가 수요를 원전을 포함한 ‘청정 발전원’으로 감당할 수 있다고 추산한다. 원전은 착공 후 전력망 연결까지 6~10년이 걸리니 급하게 신규 발전소를 세울 필요는 없는 셈이다. 믿고 안심할 수 있을까?
☞한겨레S 뉴스레터 구독하기. 검색창에 ‘한겨레 뉴스레터’를 쳐보세요.
☞한겨레신문 정기구독. 검색창에 ‘한겨레 하니누리’를 쳐보세요.
인간 노동보다 AI 돌리는 게 더 낫다?
미래를 전망하기에는 아직 미지수가 많다. 생성형 인공지능 모델 훈련에 들어가는 전력은 내년쯤부터 절대량이 줄어들리라는 논문도 있다. 계산량은 훈련 과정에서 압도적으로 많고, 응답에 요청하기 위해 추론을 진행할 때는 줄어든다. 또 일단 훈련시킨 모델을 그대로 다른 용도로 재활용하거나 약간의 추가 훈련만으로 응용 대상을 바꾸는 기법들이 발달했다. 그래서 훈련용 소비전력은 줄어들 것이라는 주장이다.
나아가 에너지를 덜 사용하는 인공지능을 사용하면 어떨까? 인공지능 학습모델을 개발하는 허깅페이스의 연구진이 출판한 연구에 따르면, 동일한 작업을 할 때 생성형 인공지능은 구식 논리연산형 인공지능보다 1천배의 에너지를 더 쓴다. 또 이미지를 생성하는 스테이블 디퓨전 엑스엘(XL)은 텍스트 생성 인공지능보다 최대 6800배 많은 이산화탄소를 배출한다. 반면 범용 인공지능보다 특화 인공지능이 에너지를 덜 쓴다. 사진의 배경을 지우거나 바꾸는 인공지능을 출시한 포토룸은 같은 작업을 할 때 스테이블 디퓨전 엑스엘보다 전력을 168분의 1만 쓴다고 설명한다.
일각에서는 에너지를 덜 사용하는 인공지능, 발열과 전력 소모가 적은 하드웨어를 사용하면 전력 소모와 환경발자국이 줄어들지 않겠냐고 희망을 품는다. 하지만 인공지능 1회당 사용 부담이 줄어든 덕분에 사용 횟수가 늘어나 결국엔 총량이 늘어나는 일은 너무 흔하다.
이런 우려들이 오가던 지난 2월 ‘네이처’가 발행하는 ‘사이언티픽 리포트’에 놀라운 논문이 실렸다. 사람이 텍스트를 생산할 때는 인공지능보다 130배(인도인)에서 1500배(미국인), 그림을 제작할 때는 310배에서 2900배 더 많은 이산화탄소를 배출한다는 주장이었다. 포토룸은 이 논문을 인용하면서 자사의 인공지능을 사용해 환경보호에 동참하자는 게시물을 올렸다. 논문에선 사람 몫으로는 사회 전체가 배출하는 탄소량을, 인공지능 몫으로는 데이터센터 내 서버에서 나오는 탄소량만을 각각 작업소요시간에 맞춰 할당해서 비교했다. 한쪽은 모든 간접 경비를 반영하고 다른 한쪽은 하나 더 생산할 때 추가되는 재료비만 따진 셈이다. 인공지능 전력량을 예측한 드브리스가 강조했듯이 인공지능 서비스 업체들이 정확한 데이터를 공개하지 않는 한, 인공지능 개발자들도 만족할 만한 추정과 전망은 요원해 보인다.
과학저술가
서울대학교 물리학과를 졸업하고 과학사 및 과학철학협동과정에서 박사 학위를 취득했다. 가톨릭대학교 교양교육원 초빙교수를 거쳐 현재 동국대학교 다르마칼리지에 재직 중이다.
▶▶한겨레 서포터즈 벗 3주년 굿즈이벤트 [보러가기]
▶▶한겨레 뉴스레터 모아보기▶▶[기획] 누구나 한번은 1인가구가 된다
이 기사의 카테고리는 언론사의 분류를 따릅니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.