컨텐츠 바로가기

12.27 (금)

AMD, 오픈소스 LLM '올모' 시리즈로 AI 시장 공략

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
AMD가 자사의 인스팅트 GPU(Instinct GPU) 클러스터에서 수조 개의 토큰으로 학습된 10억 개의 파라미터를 가진 LLM ‘올모(OLMo)’를 출시하며 엔비디아와 인텔에 도전장을 내밀었다.
ITWorld

ⓒ BoliviaInteligente / Foundry

<이미지를 클릭하시면 크게 보실 수 있습니다>



AMD는 올모라는 브랜드 아래 첫 오픈소스 LLM 시리즈를 발표했다. 엔비디아, 인텔, 퀄컴이 주도하는 경쟁 치열한 AI 시장에서의 입지 강화를 목표로 하고 있다.

올모는 인스팅트 MI250 GPU 클러스터에서 수조 개의 토큰을 사용해 처음부터 훈련된 10억 개 파라미터를 가진 LLM 시리즈다. 추론, 지시 수행, 대화 기능에서 우수한 성능을 발휘하도록 설계되었으며, 개발자가 데이터, 가중치, 트레이닝 레시피 및 코드에 액세스할 수 있는 오픈소스 방식을 채택하고 있다.

AMD는 성명에서 “커뮤니티가 함께 발전할 수 있도록 모델과 코드를 오픈소스로 제공하는 전통을 이어가며, 첫 10억 파라미터 오픈 언어 모델 시리즈인 AMD OLMo를 공개하게 되어 기쁘다”라고 밝혔다.

AMD는 오픈소스 접근 방식을 통해 AI 기술에서 대안을 찾는 기업에 접근성과 확장성이 높은 선택지로 올모를 제시한다. 올모는 데이터센터뿐 아니라 NPU(neural processing units)가 탑재된 AMD 라이젠 AI PC에서도 실행할 수 있어, 개발자가 개인 기기에서도 직접 고급 AI를 활용할 수 있다고 AMD는 덧붙였다.

에베레스트 그룹(Everest Group)의 실무 책임자 아비지안 말릭은 “AMD가 엔비디아의 선례를 따라 LLM 분야로 진출하며 컴퓨팅 하드웨어 분야에서 쌓은 강점을 확장해 나가고 있다”라며 “개방형 생태계를 구축함으로써 AMD는 개발자가 네트워크 효과를 통해 다양한 애플리케이션을 혁신적으로 구축할 수 있도록 한다”라고 평가했다. 말릭은 이 전략이 AMD의 핵심 가치를 강화하며 인스팅트 MI250 GPU와 라이젠 CPU를 포함한 하드웨어에 대한 수요 촉진에 기여한다고 덧붙였다.

광범위한 학습과 미세 조정

AMD에 따르면 올모 시리즈는 3단계의 학습 및 미세 조정 과정을 거친다.

첫 번째로, 올모 1B는 다음 토큰 예측에 초점을 맞춘 트랜스포머 모델을 사용해 돌마(Dolma) v1.7 데이터셋의 하위 집합을 사용해 사전 학습됐다. 이는 모델이 일반적인 언어 패턴을 이해하는 데 도움이 된다. 두 번째 단계에서는 과학, 코딩, 수학 분야 성능을 강화하기 위해 여러 데이터셋을 사용해 SFT(supervised and fine-tuned)를 거쳤다.

최종 모델인 올모 1B SFT DPO는 인간 피드백에 기반한 직접 선호 최적화(Direct Preference Optimization, DPO)를 통해 일반적인 사용자의 기대에 부합하는 응답을 더 효과적으로 제공하도록 개발됐다.

올모 벤치마크

AMD에 따르면, 내부 벤치마크에서 올모 모델은 타이니라마-1.1B(TinyLlama-1.1B) 및 오픈ELM-1_1B(OpenELM-1_1B)와 같은 비슷한 규모의 오픈소스 모델과의 다중 작업 및 일반 추론 테스트에서 우수한 성과를 보였다. 특히 GSM8k 작업에서는 성능이 15% 이상 향상되었는데, 이는 AMD의 다단계 SFT와 DPO 덕분으로 분석된다.

멀티 턴(multi-turn) 채팅 테스트에서도 AMD는 올모가 알파카이밸 2(AlpacaEval 2)의 승률에서 3.41%, MT-벤치(MT-Bench)에서는 0.97% 우위를 보였다고 주장했다.

그러나 더 넓은 LLM 시장에서 살펴보면, 엔비디아의 GH200 그레이스 호퍼 슈퍼칩과 H100 GPU는 여전히 다중 AI 작업에서 선도적인 성능을 자랑하고 있다. 엔비디아는 CPU와 GPU 간 데이터 전송 속도를 가속하는 C2C 링크와 같은 혁신에 중점을 두고 있어, 추천 시스템과 같은 고수요 추론 작업에서 속도 우위를 제공한다.

인텔은 최고 속도 면에서는 약간 뒤처지지만, 하바나 가우디2(Habana Gaudi2) 가속기를 통해 경제적이면서도 견고한 성능을 제공하며, 향후 정밀도를 높이기 위한 업그레이드를 계획 중이다.

한편, 퀄컴의 클라우드 AI100(Cloud AI100)은 전력 효율성을 중시하며, 엔비디아의 고성능 시스템과 같은 높은 에너지 소모 없이도 뛰어난 AI 성능을 요구하는 기업의 필요를 충족시킨다.

AMD의 올모 모델은 톡시젠(ToxiGen, 유해 언어 탐지), 크로우페어(crows_pairs, 편향 평가), 트루스풀QA-mc2(TruthfulQA-mc2, 정확성)와 같은 책임 있는 AI 벤치마크에서도 높은 성과를 기록했다. AI가 다양한 산업에 확산되는 과정에서 윤리적 AI를 추구하는 의지를 반영하는 것이라고 회사 측은 설명했다.

AI 시장에서의 AMD의 입지

AMD는 LLM 시장에 진출하면서 현재 독점 모델로 시장에서 두각을 나타내고 있는 엔비디아, 인텔, 퀄컴과 같은 기존 업체와 직접적으로 경쟁하게 됐다. 첫 오픈소스 LLM 시리즈를 통해 AMD는 현재 엔비디아, 인텔 및 퀄컴이 주도하는 시장에서 경쟁할 수 있는 역량, 개방성 및 다양성의 균형을 제공함으로써 의미 있는 성과를 기대하고 있다.

그러나 AMD가 경쟁자들과의 격차를 줄이기 위해서는 오픈소스 이니셔티브와 하드웨어 개선이 경쟁사의 성능, 효율성, 전문 AI 기능 발전과 보조를 얼마나 잘 맞출 수 있는지에 따라 달라질 것이다.

에베레스트 그룹 실무 책임자 수실 메논은 “AMD의 오픈소스 LLM 분야 진출은 생성형 AI 채택에 따른 운영 비용을 낮출 가능성을 열어주며 생태계를 강화하고 있다. 이런 행보는 다른 독점 LLM로 하여금 지속적인 혁신과 가격 정당성을 요구하게 한다”라고 덧붙였다.

애널리스트들은 AMD의 독특한 오픈소스 전략과 접근성이 기업과 개발자에게 유연하고 경제적인 AI 솔루션을 제공하며 독점적인 제약을 피하고자 하는 수요를 자극할 것이라고 보고 있다.

메논은 “장기적인 데이터 프라이버시 문제를 고려하는 대기업에 AMD의 오픈소스 모델은 AI 통합 과정에서 매력적인 대안이 될 수 있다”라며 “하드웨어와 LLM, 생태계 도구 전반에 걸친 통합된 AI 스택을 구축함으로써 AMD는 주요 실리콘 제공업체 사이에서 독자적인 경쟁 우위를 다지고 있다”라고 평가했다.
editor@itworld.co.kr

Gyana Swain editor@itworld.co.kr
저작권자 한국IDG & ITWorld, 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.