GPT-2 거대 언어 모델 400밀리와트 전력으로 구동 성공
ISSCC(국제고체회로설계학회)에서 연구 결과를 발표 중인 김상엽 박사.(과기정통부 제공) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
(서울=뉴스1) 서장원 기자 = 직경 4.5mm 크기 반도체 칩으로 초거대 언어모델 기반 생성형 AI를 구동하는 기술을 국내 연구진이 세계 최초로 개발했다.
칩 크기가 작은 만큼 필요 전력도 많지 않아 상용화가 될 경우 AI 반도체 생태계에 막대한 영향을 줄 것으로 기대된다.
과학기술정보통신부는 카이스트(KAIST) PIM 반도체 연구센터와 인공지능 반도체 대학원 유회준 교수 연구팀이 400밀리와트 초저전력을 소모하면서 0.4초 초고속으로 거대 언어 모델을 처리할 수 있는 인공지능 반도체 '상보형-트랜스포머'를 세계 최초로 개발했다고 6일 밝혔다.
상보형-트랜스포머 칩 구조.(과기정통부 제공) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
연구팀은 다량의 GPU와 250와트의 전력 소모를 통해 구동되는 GPT 등 거대 언어 모델을 4.5mmx4.5mm의 작은 한 개의 인공지능(AI) 반도체 칩 상에서 초저전력으로 구현하는 것에 성공했다.
특히 인간 뇌의 동작을 모사하는 뉴로모픽 컴퓨팅(Neuromorphic Computing) 기술인 스파이킹 신경망을 활용해 트랜스포머 동작을 구현한 것이 특징이다.
김상엽 박사가 제1 저자로 참여한 이번 연구는 지난 2월 19일부터 23일까지 미국 샌프란시스코에서 개최된 국제고체회로설계학회(ISSCC)에서 발표 및 시연됐다.
AI 반도체의 변화와 발전 과정.(과기정통부 제공) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
기존 뉴로모픽 컴퓨팅 기술은 합성곱신경망(CNN)에 비해 부정확하며 주로 간단한 이미지 분류 작업만 가능했다. 연구팀은 뉴로모픽 컴퓨팅 기술의 정확도를 CNN과 동일 수준으로 끌어올리고 단순 이미지 분류를 넘어 다양한 응용 분야에 적용할 수 있는 상보형-심층신경망(C-DNN)을 제안했다.
상보형 심층신경망 기술은 김상엽 박사가 발표한 것으로 심층 인공 신경망(DNN)과 스파이킹 신경망(SNN)을 혼합해 사용하며 입력 데이터들을 크기에 따라 서로 다른 신경망에 할당해 전력을 최소화할 수 있는 기술이다.
이번 연구는 지난해 상보형-심층신경망 기술을 거대 언어 모델에 적용함으로써 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 실제로 입증했다. 그동안 이론적인 연구에만 머물렀던 연구 내용을 세계 최초로 인공지능 반도체 형태로 구현한 것에 의의가 있다.
상보형-트랜스포머를 활용한 대형 언어 모델(LLM) 데모 시연 모습.(과기정통부 제공) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
연구팀은 "이번 연구 성과는 모바일 장치 등 에너지 제약이 높은 환경에서도 정확하게 거대 언어모델을 구동할 수 있어 온디바이스 AI 구현을 위한 최적의 기술"이라고 말했다.
유회준 KAIST 전기 및 전자공학부 교수는 "뉴로모픽 컴퓨팅은 인공지능 시대에 필수적인 초저전력·고성능 온디바이스 AI의 핵심 기술인 만큼 앞으로도 관련 연구를 지속할 것"이라고 설명했다.
전영수 과기정통부 정보통신산업정책관은 "지난 1월 대통령 주재 반도체 민생토론회에서 AI 반도체의 중요성이 강조되었듯 앞으로도 세계적인 연구 성과를 지속해서 낼 수 있도록 적극 지원하겠다"고 말했다.
superpower@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.