컨텐츠 바로가기

05.09 (목)

이슈 대한민국 연구 현장

초저전력 AI 반도체, 국내 연구진이 개발 성공

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

데이터 크기 맞춰 작동 방식 판단

언어 생성 속도 0.4초로 매우 빨라

스마트폰 등 AI 활용도 높아질 듯

국내 연구진이 성능이 뛰어나면서도 전기는 매우 적게 사용하는 인공지능(AI) 반도체를 개발했다. 사람과 대화하고, 각종 정보를 찾아주는 GPT 같은 ‘거대언어모델(LLM) AI’를 배터리 소모 걱정 없이 스마트폰 등으로 장시간 사용할 기반이 마련될 것이라는 전망이 나온다.

과학기술정보통신부는 6일 유회준 카이스트 전기 및 전자공학부 교수가 이끄는 연구진이 처리 속도는 유지하면서도 전기 소모량은 크게 줄인 AI 탑재용 반도체를 개발했다고 밝혔다. 연구진은 이 반도체에 ‘상보형-트랜스포머’라는 이름을 붙였다. 연구 결과는 지난달 19~23일 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 발표·시연됐다.

연구진은 이번에 개발한 AI 반도체 전력 소모량이 현재 LLM 작동에 사용되는 그래픽처리장치(GPU)인 엔비디아 A100 대비 625분의 1에 불과하다고 밝혔다. LLM의 일종인 GPT-2를 작동시켰더니 언어 생성 속도도 0.4초로 매우 빨라 사용에 불편함이 없었다.

연구진이 이런 초저전력 기술을 만들 수 있었던 것은 AI를 돌리는 기술 두 가지의 특징에 집중했기 때문이다.

AI 작동 기술 중 하나는 ‘스파이킹 뉴럴 네트워크(SNN)’이다. SNN은 실시간 정보 처리에 유리하다. 하지만 복잡한 정보를 처리하는 능력은 약하다. 또 다른 기술은 ‘심층 인공 신경망(DNN)’이다. DNN은 이미지 인식과 비디오 정보 분석 같은 고난도 정보 처리가 가능하다.

연구진은 정보를 담은 데이터 크기가 작으면 SNN이 DNN보다 전기를 더 적게 쓴다는 점을 알아냈다. 반대로 데이터가 클 경우 DNN이 SNN보다 전기를 덜 썼다. 연구진은 데이터 크기를 평가해 SNN으로 넘길지, DNN으로 넘길지를 재빨리 판단하는 작동 체계를 고안했다. 크기가 작아 가볍게 처리할 수 있는 데이터는 SNN에, 크기가 커 복잡한 분석을 해야 하는 데이터는 DNN으로 분배했다. 전기를 최대한 덜 쓰면서도 데이터를 효과적으로 처리할 수 있게 한 것이다. 연구진은 이번 반도체를 삼성전자 28나노 공정을 통해 제작했다고 밝혔다.

연구진은 이번 기술이 스마트폰 등 전자기기에 들어가는 ‘온디바이스 AI’ 사용을 확대하는 계기가 될 것으로 기대했다. AI 사용에 따른 배터리 소모량을 줄일 수 있어서다.

이정호 기자 run@kyunghyang.com

▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
▶ 진보? 보수? 당신의 정치성향을 테스트해 보세요!

©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.