컨텐츠로 건너뛰기
검색
디지털데일리 언론사 이미지

비큐AI, 자체 CoT 데이터 기반 초경량 언어모델 ‘RDP-N1’ 공개

디지털데일리 이상일 기자
원문보기

비큐AI, 자체 CoT 데이터 기반 초경량 언어모델 ‘RDP-N1’ 공개

속보
소방당국 "구룡마을 화재 오전 11시 34분 초진"

[디지털데일리 이상일기자] 비큐AI는 자체 구축한 추론형 데이터셋(CoT, Chain-of-Thought)을 활용해 오픈소스 7B(70억 파라미터) 기반 모델을 효율적으로 미세 조정한 초경량 소형언어모델(sLLM) ‘RDP-N1’을 개발했다고 16일 밝혔다.

이번 모델은 파라미터 효율적 미세 조정(PEFT) 방식과 QLoRA(Quantized Low-Rank Adaptation) 기법을 적용해 기존 모델의 파라미터 손상을 최소화했다. 또 양자화 기술을 통해 모델 용량을 29GB에서 7.1GB로 줄였다. 그 결과 EM, ROUGE, BLEU, KoBERT 유사도 등 주요 평가 지표에서 최대 93%의 성능 향상을 달성했다. 회사는 이를 통해 자사 데이터 생산 플랫폼 ‘RDPLINE’의 고품질 CoT 데이터 효과를 정량적으로 입증했다고 설명했다.

CoT 데이터는 단순한 정답 제공이 아니라, 답에 이르는 논리적 추론 과정을 함께 학습하도록 설계된 데이터다. 비큐AI는 질의응답과 추론 과정을 자동 생성한 뒤, 상용 고성능 언어모델로 검증해 오류와 모순을 제거하는 다단계 평가 체계를 구축했다. 이 과정을 통해 고신뢰 데이터만을 학습에 활용했다는 설명이다.

비큐AI 관계자는 “이번 개발은 모델 구조보다 데이터 품질이 성능 향상에 미치는 영향을 검증하는 데 초점을 맞췄다”며 “고품질 CoT 데이터의 학습 효과는 더 큰 파라미터 모델에도 동일하게 적용 가능하다”고 말했다.

비큐AI는 향후 RDPLINE을 통해 확보한 대규모 뉴스·미디어 데이터 파이프라인을 바탕으로 ‘RDP-N1’을 다양한 서비스에 적용할 계획이다. 또한 초경량 모델과 고성능 모델을 조합해 성능과 비용 효율을 최적화하는 전략을 추진할 예정이다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -