컨텐츠 바로가기

09.20 (금)

알리바바, '큐원 2.5' 제품군 100개 이상 출시..."LLM부터 온디바이스까지 포함"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[박찬 기자]
AI타임스

(사진=셔터스톡)

<이미지를 클릭하시면 크게 보실 수 있습니다>


알리바바가 인기 오픈 소스 모델 '큐원'을 2.5 버전으로 업그레이드하며 관련 제품군을 무려 100개나 공개했다. 이를 통해 수학과 코딩 능력을 강화했다고 강조했는데, 이는 오픈AI의 'o1' 을 염두에 둔 것으로 보인다.

CNBC는 19일(현지시간) 알리바바 클라우드가 새로 공개한 대형언어모델(LLM) '큐원 2.5(Qwen 2.5)' 제품군 100개 이상을 오픈 소스로 출시했다고 보도했다.

이에 따르면 신규 오픈 소스 큐원 2.5 모델들은 0.5억에서 720억개의 매개변수를 갖추고 있다. LLM부터 온디바이스 AI까지 모두 크기에 적용할 수 있도록 했다.

또 수학과 코딩 능력이 강화된 것을 특징으로 꼽았다.

여기에 29개 이상의 언어를 지원, 자동차, 게임, 과학 연구 등 다양한 분야에서 엣지나 클라우드 환경 모두에서 폭넓은 AI 애플리케이션에 활용할 수 있다고 강조했다.

큐원 모델 시리즈는 알리바바 클라우드의 독자적인 LLM 포트폴리오로, 2023년 4월 첫 출시 이후 허깅페이스와 알리바바 오픈소스 커뮤니티 모델스코프 등의 플랫폼에서 4000만건 이상의 다운로드를 기록했다.

이번 큐원 2.5는 100개 이상의 모델을 오픈 소스로 공개한다. 여기에는 기본 모델, 인스트럭트 모델, 다양한 정밀도와 방식을 적용한 양자화(quantization) 모델이 포함되며, 언어, 오디오, 비전 등 다양한 모달리티와 전문적인 코드 및 수학 모델을 포함한다.

이와 더불어 주력 모델 '큐원 맥스(Qwen-Max)'의 업그레이드도 발표했다.

큐원 맥스 모델은 언어 이해와 추론, 수학, 코딩 등에서 다른 최첨단 모델들과 견줄만한 성능을 제공한다고 설명했다. 이는 오픈AI의 'o1'을 설명하는 멘트와 매우 흡사하다.

한편, 이미지 생성기 '통이 완샹(Tongyi Wanxiang)'의 새로운 텍스트-비디오 모델도 공개했다.

이 모델은 현실적인 장면부터 3D 애니메이션까지 다양한 스타일의 품질 높은 영상을 생성할 수 있으며, 중국어와 영어 텍스트 지시를 기반으로 영상을 생성하고 정지 이미지를 동영상으로 변환할 수도 있다. 또 향상된 영상 재구성을 위해 고급 확산 트랜스포머(DiT) 아키텍처를 탑재했다.

이 외에도 알리바바 클라우드는 '큐원2-VL'이라는 시각언어모델(VLM)의 대규모 업데이트도 도입했다. 큐원2-VL은 20분 이상 길이의 영상을 이해하고, 영상 기반의 질문 응답도 할 수 있다. 정교한 추론 및 의사결정 기능을 갖춘 큐원2-VL은 핸드폰, 자동차, 로봇에 통합될 수 있도록 설계되어 특정 작업의 자동화도 지원한다.

에디 우 알리바바 클라우드 CEO는 성명에서 "알리바바 클라우드는 AI 기술 연구개발과 글로벌 인프라 구축에 전례 없는 강도로 투자하고 있다"라고 강조했다.

AGI에 대한 의견도 밝혔다. 그는 "물리 세계의 대부분 사물은 AI 기능을 갖추게 될 것"이라며 이번 큐원 2.5 제품군을 다양한 크기로 출시한 데 대한 이유를 밝혔다.

이어 "지난 22개월 동안 AI 개발 속도는 이전 어느 기간보다 빨라졌지만, AGI의 경우 아직 초기 단계에 있다"라고 말했다.

박찬 기자 cpark@aitimes.com

<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.