컨텐츠 바로가기

11.25 (월)

이슈 인공지능 시대가 열린다

1㎠보다 작은 칩 하나로 LLM 구현…韓 연구진, AI반도체 기술 세계 최초 개발

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

KAIST 연구팀, '상보형 트랜스포머' 삼성 28나노 공정 통해 개발

LLM 파라미터 압축해 소모 전력 70%↓…엔비디아 GPU 대비 625배

파라미터 줄여도 고속 동작 가능…언어 생성 0.4초, 언어 번역 0.2초

뉴시스

[서울=뉴시스]대언어모델 인공지능 개발에 널리 사용되는 미 엔비디아사의 첨단 GPU H-100. (사진=엔비디아 홈페이지) 2023.5.8. *재판매 및 DB 금지

<이미지를 클릭하시면 크게 보실 수 있습니다>


[서울=뉴시스]윤현성 기자 = 국내 연구진이 가로·세로 길이가 1㎝도 채 되지 않는 AI(인공지능) 반도체 칩 하나로 GPT와 같은 거대 언어 모델(LLM)을 초전력으로 구현할 수 있는 기술을 세계 최초로 개발했다.

과학기술정보통신부는 KAIST(한국과학기술원) PIM반도체 연구센터와 AI반도체 대학원 유회준 교수 연구팀이 400밀리와트 초저전력을 소모하면서 0.4초 초고속으로 거대 언어 모델을 처리할 수 있는 AI 반도체인 '상보형-트랜스포머'를 삼성 28나노 공정을 통해 세계 최초로 개발했다고 6일 밝혔다.

상보형 트랜스포머는 스파이킹 뉴럴 네트워크(SNN)과 심층 인공신경망(DNN)을 선택적으로 사용해 트랜스포머 기능을 구현하게 된다.

뉴시스

AI 반도체 발전 방향. (사진=과기정통부 제공) *재판매 및 DB 금지

<이미지를 클릭하시면 크게 보실 수 있습니다>


연구팀은 그동안 다량의 GPU(그래픽처리장치)와 250와트의 전력소모를 통해 구동되는 GPT 등 LLM을 4.5㎜ x 4.5㎜의 작은 한 개의 AI 반도체 칩 상에서 초저전력으로 구현하는 것에 성공했다.

기존 뉴로모픽 컴퓨팅 기술은 딥러닝 모델의 하나인 합성곱신경망(CNN)에 비해 부정확해 주로 간단한 이미지 분류 작업만 가능했다. 연구팀은 뉴로모픽 컴퓨팅 기술의 정확도를 CNN과 동일 수준으로 끌어올리고, 단순 이미지 분류를 넘어 다양한 응용 분야에 적용할 수 있는 상보형-심층신경망(C-DNN)을 제안했다.

상보형 심층신경망 기술은 지난해 2월에 개최된국제고체회로설계학회(ISSCC)에서 이번 연구의 제1저자인 김상엽 박사가 발표한 바 있다. 심층 인공 신경망(DNN)과 스파이킹 뉴럴 네트워크(SNN)를 혼합해 사용하며 입력 데이터들을 크기에 따라 서로 다른 신경망에 할당해 전력을 최소화할 수 있다.

사람의 뇌가 생각할 것이 많을 때 에너지 소모가 많고 생각할 것이 적을 때 에너지 소모가 적은 것과 같이 뇌를 모방한 스파이킹 뉴럴 네트워크는 입력값의 크기가 클 때는 전력을 많이 소모하고 입력값의 크기가 작을 때에는 전력을 적게 소모한다.

뉴시스

스파이킹 뉴럴 네트워크(SNN)와 심층 신경망(DNN) 사이의 상보적 특성. (사진=과기정통부 제공) *재판매 및 DB 금지

<이미지를 클릭하시면 크게 보실 수 있습니다>


작년 연구에서는 이러한 특징을 활용해 작은 입력값들만을 스파이킹 뉴럴 네트워크에 할당하고 큰 값들은 심층 인공 신경망에 할당해 전력 소모를 최소화했다. 이번 연구는 작년의 상보형-심층신경망 기술을 LLM에 적용함으로써 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 실제로 입증했다. 그동안 이론적인 연구에만 머물렀던 연구내용을 세계 최초로 AI반도체 형태로 구현한 것에 의의가 있다.

특히 연구팀은 뉴로모픽 컴퓨팅의 실용적인 확장 가능성에 중점을 두고 문장 생성, 번역, 요약 등과 같은 고도의 언어 처리 작업을 성공적으로 수행할 수 있는지를 연구했다. 그 과정에서 가장 큰 관건은 뉴로모픽 네트워크에서 높은 정확도를 달성하는 것이었다.

일반적으로 뉴로모픽 시스템은 에너지 효율은 높지만 학습 알고리즘의 한계로 인해 복잡한 작업을 수행할 때 정확도가 떨어지는 경향이 있었다. 이같은 문제는 LLM과 같이 높은 정밀도와 성능이 요구되는 작업에서 큰 장애 요소로 작용했다.

이러한 문제를 해결하기 위해 연구팀은 독창적인 DNN-to-SNN 등가변환기법을 개발하여 적용했다. 이는 기존의 심층 인공 신경망 구조를 스파이킹 뉴럴 네트워크로 변환하는 방법의 정확도를 더욱 끌어올리기 위해 스파이크의 발생 문턱값을 정밀 제어하는 방법이다. 연구팀은 이를 통해 스파이킹 뉴럴 네트워크의 에너지 효율성을 유지하면서도 심층 인공 신경망 수준의 정확도를 달성할 수 있었다고 설명했다.

뉴시스

상보형 트랜스포머에서 채택한 외부 메모리 접근(EMA) 횟수를 줄이는 방식의 3단계 파라미터 압축법. 1단계는 빅-리틀 네트워크, 2단계는 암시적 가중치 생성이며 3단계는 부호 압축이다. (사진=과기정통부 제공) *재판매 및 DB 금지

<이미지를 클릭하시면 크게 보실 수 있습니다>


연구팀은 GPT-2 거대 모델의 708M개에 달하는 파라미터를 191M개로 줄였으며, 번역을 위해 사용되는 T5 모델의 402M개에 달하는 파라미터도 동일한 방식을 통해 76M개로 줄일 수 있었다.

이러한 압축을 통해 연구진은 언어 모델의 파라미터를 외부 메모리로부터 불러오는 작업에 소모되는 전력을 약 70% 감소시키는 것에 성공했다. 그 결과, 상보형-트랜스포머는 전력 소모를 엔비디아 A100 GPU 대비 625배만큼 줄이면서도 GPT-2 모델을 활용한 언어 생성에는 0.4초의 고속 동작이 가능하며, T5 모델을 활용한 언어 번역에는 0.2초의 고속 동작을 할 수도 있다.

이번 연구는 거대모델의 파라메타 수를 줄이는 데에만 집중된 최근 연구 트렌드와 달리 파라미터 수 감소에 더해 초저전력 처리가 가능한 뉴로모픽 컴퓨팅을 LLM 처리에 적용해 에너지 효율을 극대화했다는 점이 획기적이다.

연구팀은 향후 뉴로모픽 컴퓨팅을 언어 모델에 국한하지 않고 다양한 응용 분야로 연구범위를 확장하고, 상용화에 관련된 문제점들도 파악하여 개선할 예정이라고 밝혔다.

유회준 KAIST 전기및전자공학부 교수는 "이번 연구는 기존 AI반도체가 가지고 있던 전력 소모 문제를 해소했을 뿐만 아니라, GPT-2와 같은 실제 거대언어모델 응용을 성공적으로 구동했다는데 큰 의의가 있다"며 "뉴로모픽 컴퓨팅은 AI 시대에 필수적인 초저전력·고성능 온디바이스AI의 핵심기술인만큼 앞으로도 관련 연구를 지속할 것"이라고 설명했다.

전영수 과기정통부 정보통신산업정책관은 "이번 연구성과는 AI반도체가 NPU와 PIM을 넘어 뉴로모픽 컴퓨팅으로 발전할 수 있는 가능성을 실제로 확인했다는 것에 큰 의미가 있다"며 "지난 1월 대통령 주재 반도체 민생토론회에서 AI반도체의 중요성이 강조됐듯이, 앞으로도 이러한 세계적인 연구성과를 지속적으로 낼 수 있도록 적극적으로 지원하겠다"고 말했다.

☞공감언론 뉴시스 hsyhs@newsis.com

▶ 네이버에서 뉴시스 구독하기
▶ K-Artprice, 유명 미술작품 가격 공개

<저작권자ⓒ 공감언론 뉴시스통신사. 무단전재-재배포 금지.>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.