라마3, GPT-4 성능 따라 잡아..토큰 입력창 짧은건 흠
메타, 퀄컴과 제휴…퀄컴 기반 디바이스에 라마3 탑재
"온디바이스 AI반도체에 얹어 로열티 받을 수 있을 것"
<이미지를 클릭하시면 크게 보실 수 있습니다> |
라마3 성능 “폐쇄형 LLM에 견줄 수준”
테크 전문지 디 인포메이션은 22일(현지시간) MMLU(대규모다중작업언어이해)벤치마크를 인용, 라마3의 4050억 매개변수 버전(400B+)이 오픈AI, 구글, 앤트로픽 등 폐쇄형 대형언어모델(LLM) 성능에 견줄만 하다고 전했다.
라마3(400B+)는 MMLU 벤치마크에서 구글의 ‘제미나이 프로’(90점), 앤트로픽의 ‘클로드3 오퍼스’(88.2점), 오픈AI의 GPT-4(86.8점)에 이어 84.8점을 기록했다. 아직 토큰 입력창(컨텍스트 창)이 다른 빅테크의 LLM에 비해 너무 짧다는 것은 흠이지만, 메타는 공식 블로그에서 “멀티모달, 다국어 대화, 더 길어진 컨텍스트 창 등 더 강력한 기능을 갖춘 여러 버전의 새로운 라마3 버전을 출시할 것”이라고 밝혔다.
퀄컴과 제휴한 메타, AI반도체로 로열티 가능해져
전문가들이 라마3에 주목하는 것은 성능 향상 뿐만이 아니다. LLM에 다른 빅테크들보다 늦게 뛰어든 메타는 오픈소스로 ‘라마’를 풀면서 생태계는 넓혔지만, 돈버는 모델을 찾지는 못했다. 하지만 라마3부터는 달라진 모습을 보이고 있다. 퀄컴과 제휴해 온디바이스AI의 기린아로 부상하고 있는 것이다.
퀄컴은 메타와의 제휴를 통해 지난 19일(현지시간) 스냅드래곤 프로세서 기반의 스마트폰과 PC 등에서 라마3를 구동시키겠다고 발표했다. 이는 퀄컴의 스마트폰 시장 지배력을 고려할 때 상당한 시너지가 예상된다. 오픈 소스로 라마를 제공했던 메타 입장에서도 AI 반도체 협력을 통해 지식재산권(IP)을 제공함으로써 수익을 창출할 수 있는 새로운 가능성이 열렸다.
배주호 한국외국어대학교 Global Business & Technology 학부 교수는 “휴대폰에서 LLM기반 서비스를 구동하기 위해서 모델 맞춤형 칩을 디자인하면 전력이나 성능면에서 매우 효율적인 장점을 가질 수 있다” 면서 “퀄컴이 라마3와 호환성을 고려하여 칩을 개발하여 다른회사의 GPU, NPU에 비해 서비스 경쟁력을 가질 것”이라고 예측했다.
그는 “메타 입장에서는 라마에 기반한 온디바이스 개발 플랫폼을 제공하여 생태계를 조성하게 되면 추후 다양한 디바이스 환경에서 라마 LLM기반 서비스가 가능해지므로 AI모델 개발 주도권 및 서비스 수익 부분에서 강점을 가져갈 수 있다는 의미”라고 했다.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.