Motif 12.7B 허깅페이스 공개
개발·운영 과정 비용 효율성↑
개발·운영 과정 비용 효율성↑
인공지능(AI) 스타트업 모티프테크놀로지스(이하 모티프)가 자체 개발한 거대언어모델(LLM)인 'Motif 12.7B'를 허깅페이스에 오픈소스로 공개했다고 5일 밝혔다.
127억개의 매개변수(파라미터)를 기반으로 하는 이 모델은 모티프가 '프롬 스크래치'방식으로 모델 구축부터 데이터 학습까지 전 과정을 직접 수행했다. Motif 12.7B는 앞서 공개했던 경량 모델(Motif 2.6B)에서 한 단계 도약한 고성능 LLM으로 추론 능력과 학습 효율을 모두 끌어올렸다.
벤치마크 결과 Motif 12.7B 추론 능력을 평가하는 수학, 과학, 논리 과제에서 720억 매개변수를 가진 알리바바 큐원 2.5(72B)을 능가했다. 구글 젬마3 동급 모델과의 비교에서도 주요 추론 능력 관련 평가 지표에서 더 나은 점수를 얻었다.
127억개의 매개변수(파라미터)를 기반으로 하는 이 모델은 모티프가 '프롬 스크래치'방식으로 모델 구축부터 데이터 학습까지 전 과정을 직접 수행했다. Motif 12.7B는 앞서 공개했던 경량 모델(Motif 2.6B)에서 한 단계 도약한 고성능 LLM으로 추론 능력과 학습 효율을 모두 끌어올렸다.
벤치마크 결과 Motif 12.7B 추론 능력을 평가하는 수학, 과학, 논리 과제에서 720억 매개변수를 가진 알리바바 큐원 2.5(72B)을 능가했다. 구글 젬마3 동급 모델과의 비교에서도 주요 추론 능력 관련 평가 지표에서 더 나은 점수를 얻었다.
또한 개발과 운영 전 과정에서 비용 효율성을 높였다. 개발 단계에서는 강화학습 과정이 생략돼 고비용 학습 부담을 줄였으며, 운영 단계에서는 모델이 불필요한 추론 연산을 자동으로 회피함으로써 GPU 사용량 절감, 모델 관리의 단순화, 응답 지연시간 최소화 등을 달성했다.
임정환 모티프 대표는 "Motif 12.7B는 단순한 성능 향상을 넘어 AI 모델의 구조적 진화를 보여주는 사례가 됨과 동시에 보다 비용 효율적인 고성능 LLM을 원하는 기업들에 모범 답안이 될 것"이라고 밝혔다.
김보경 기자 bkly477@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
