엔비디아 A100 범용 GPU서 구동
MoE 아키텍처로 효율성 강화
카카오가 자체 개발한 언어모델 'Kanana-2'(카나나-2)를 한 단계 발전시켰다. 연산 효율을 높이고 효율성도 강화했다고 설명했다. 이와 함께 4종의 모델을 오픈소스로 추가 공개했다.
카카오가 공개한 4종의 모델은 고효율과 저비용 성능 혁신과 함께 실질적인 에이전틱 AI(Agentic) 구현을 위한 도구 호출 능력을 강화했다. 초고가 인프라가 아닌 엔비디아 A100 수준의 범용 GPU(그래픽처리장치)에서도 원활히 구동되도록 해 중소기업과 학계 연구자들이 비용부담 없이 고성능 AI를 활용할 수 있도록 실용성을 높였다.
카나나-2 효율성 핵심은 '전문가 혼합'(MoE, Mixture of Experts) 아키텍처다. 전체 파라미터는 320억개 규모로 거대 모델의 지능을 유지하면서 실제 추론 시 상황에 맞는 30억개 파라미터만 활성화해 연산 효율을 높였다.
MoE 아키텍처로 효율성 강화
카카오가 자체 개발한 언어모델 'Kanana-2'(카나나-2)를 한 단계 발전시켰다. 연산 효율을 높이고 효율성도 강화했다고 설명했다. 이와 함께 4종의 모델을 오픈소스로 추가 공개했다.
카카오가 공개한 4종의 모델은 고효율과 저비용 성능 혁신과 함께 실질적인 에이전틱 AI(Agentic) 구현을 위한 도구 호출 능력을 강화했다. 초고가 인프라가 아닌 엔비디아 A100 수준의 범용 GPU(그래픽처리장치)에서도 원활히 구동되도록 해 중소기업과 학계 연구자들이 비용부담 없이 고성능 AI를 활용할 수 있도록 실용성을 높였다.
카나나-2 효율성 핵심은 '전문가 혼합'(MoE, Mixture of Experts) 아키텍처다. 전체 파라미터는 320억개 규모로 거대 모델의 지능을 유지하면서 실제 추론 시 상황에 맞는 30억개 파라미터만 활성화해 연산 효율을 높였다.
MoE 모델 학습에 필수적인 여러 커널을 직접 개발해 성능 손실 없이 학습 속도는 높이고 메모리 사용량을 낮추는 성과를 거뒀다.
아키텍처와 데이터 고도화와 함께 데이터 학습 단계도 한층 높아졌다. 사전 학습과 사후 학습 중간에 '미드 트레이닝'(Mid-training) 단계를 신설하고 AI모델이 새로운 정보를 배울 때 기존 지식을 잊는 치명적 망각 현상을 방지하기 위해 리플레이(Replay) 기법을 도입했다. 이를 통해 새로운 추론 능력은 추가하면서도 기존 한국어 구사와 일반 상식 능력을 안정적으로 유지할 수 있었다는 설명이다.
카카오 관계자는 "이 같은 기술을 바탕으로 기본 모델부터 지시 이행과 추론 특화 모델, 미드 트레이닝 모델까지 4종의 모델을 허깅페이스에 추가로 공개했다"며 "연구 목적으로 활용도가 높은 미드 트레이닝 탐색용 기본 모델을 함께 제공해 오픈소스 생태계 기여도를 높였다"고 설명했다.
새로운 카나나-2 모델은 단순 대화형 AI를 넘어 실질적 업무 수행이 가능한 AI 구현에 특화한 게 특징이다. 실제 성능 평가에서 동급 경쟁 모델인 'Qwen-30B-A3B-Instruct-2507' 대비 지시이행 정확도와 멀티턴 도구 호출 성능, 한국어 능력 등에서 우위를 기록했다.
김병학 카나나 성과리더는 "새로워진 카나나-2는 고가의 인프라 없이도 실용적인 에이전트 AI를 구현할 수 있을까에 대한 고민의 결과"라며 "보편적인 인프라 환경에서도 고효율을 내는 모델을 오픈소스로 공개해 국내 AI 연구개발 생태계 발전과 기업들의 AI 도입 새로운 대안이 되길 기대한다"고 말했다.
ⓒ비즈니스워치(www.bizwatch.co.kr) - 무단전재 및 재배포금지
