모델 3종 허깅페이스에 공개
추론 모델도 오픈소스로 첫선
에이전틱 AI 위한 도구 호출 및
사용자 지시 이행 능력 강화 중점
추론 모델도 오픈소스로 첫선
에이전틱 AI 위한 도구 호출 및
사용자 지시 이행 능력 강화 중점
[사진 = 카카오] |
카카오가 허깅페이스에 자체 개발한 차세대 언어모델 ‘카나나-2(Kanana-2)’를 오픈소스로 공개했다고 19일 밝혔다.
카카오는 지난해 인공지능(AI) 모델 ‘카나나’의 라인업을 선보인 이래 경량 사이즈 모델부터 고난이도 문제 해결에 특화된 ‘카나나-1.5’까지 꾸준히 오픈소스로 추가 공개해 왔다.
이번에 선보인 ‘카나나-2’ 모델은 성능과 효율을 획기적으로 개선한 최신 연구성과로, 사용자 명령의 맥락을 파악하고 능동적으로 동작하는 ‘동료’와 같은 AI 구현에 초점을 맞췄다.
이번에 공개된 모델은 총 3종으로 기본 모델인 베이스(Base), 사후 학습을 통해 지시 이행 능력을 높인 인스트럭트(Instruct), 추론(Thinking) 특화 모델로 구성됐다. 이 중 추론 모델은 이번에 처음 선보이는 것이다.
특히 개발자들이 자체 데이터를 활용해 자유롭게 모델을 파인튜닝할 수 있도록 학습 단계의 웨이트(학습된 매개변수 값)를 모두 공개한 점이 특징이다.
카나나-2는 에이전틱 AI 구현의 핵심인 도구 호출(Tool Calling) 기능과 사용자 지시 이행(Instruction following) 능력이 크게 향상됐다. 카카오에 따르면 이전 모델(카나나-1.5-32.5b) 대비 다중 대화 도구 호출 능력을 3배 이상 향상시켰으며, 복잡한 단계별 요구 사항을 정확하게 이해하고 수행하도록 설계됐다.
지원 언어 역시 기존 한국어와 영어에서 일본어·중국어·태국어·베트남어를 추가해 총 6개로 확장했다.
기술적으로는 효율성을 극대화하기 위해 최신 아키텍처를 도입했다. 긴 입력(Input)을 효율적으로 처리하는 방식인 ‘MLA’ 기법을 적용했으며, 추론 시 필요한 파라미터만 활성화하는 ‘MoE’ 구조를 적용했다.
이를 통해 적은 메모리 자원으로도 긴 문맥을 효율적으로 처리할 수 있게 됐으며, 추론 시 필요한 파라미터만 활성화해 연산 비용과 응답 속도를 개선했다. 대규모 동시 접속 요청 역시 빠르게 처리 가능하다.
성능 지표에서도 글로벌 수준의 경쟁력을 확인했다. 인스트럭트 모델의 경우 동일한 구조의 최신 모델 ‘큐웬3(Qwen3-30B-A3B)’와 유사한 수준을 달성했다. 추론 특화 모델도 다양한 사고 능력이 요구되는 벤치마크에서 추론 모드를 적용한 큐웬3(Qwen3-30B-A3B)와 유사한 성능을 보였다.
카카오는 향후 동일한 MoE 구조를 기반으로 모델 규모를 확장하고, 고차원적인 지시 이행 능력을 확보할 계획이다. 이와 더불어 복잡한 AI 에이전트 시나리오에 특화된 모델 개발과 온디바이스 경량화 모델의 고도화를 지속적으로 추진할 계획이다.
김병학 카카오 카나나 성과리더는 “혁신적인 기술과 기능을 갖춘 AI 서비스 근간은 기반이 되는 언어모델 성능과 효율”이라며 “높은 성능에 초점을 둔 모델을 넘어 실제 AI 서비스에 적용돼 빠르고 효과적으로 동작할 수 있는 실용성을 갖춘 AI 모델을 개발하고 꾸준히 오픈소스로 공유하며 국내외 AI 연구 생태계 활성화에 기여할 것”이라고 말했다.
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
