컨텐츠 바로가기

05.30 (목)

마이크로소프트, 소형 언어 모델 파이-3 시리즈 발표 "SLM만의 강점 있어"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
마이크로소프트가 고성능 생성형 인공지능 기술을 모바일 기기 등 더 많은 플랫폼으로 확대하기 위해 새로운 소형 언어 모델(SLM) 제품군을 발표했다.

마이크로소프트가 발표한 파이-3(Phi-3) 플랫폼은 파라미터 개수가 38억 개인 파이-3 미니, 70억 개인 파이-3 스몰, 140억 개인 파이-3 미디엄의 3가지 모델로 구성돼 있다. 지난해 12월 파이-1, 파이-2에 이어 SLM 제품군의 새로운 단계로 소개됐다.
ITWorld

ⓒ Getty Images Bank

<이미지를 클릭하시면 크게 보실 수 있습니다>



당시 마이크로소프트는 파이-3가 27억 개의 파라미터를 이해할 수 있는 파이-2 기반이며 최대 25배 더 큰 LLM보다 성능이 뛰어나다고 주장했다. 파라미터는 언어 모델이 이해할 수 있는 복잡한 명령어의 수를 나타낸다. 예를 들어 오픈AI의 LLM GPT-4는 잠재적으로 1조 7,000억 개 이상의 파라미터를 이해한다. 마이크로소프트는 오픈AI의 주주이자 협력업체이고, 생성형 AI 비서인 코파일럿의 기반인 챗GPT를 사용하고 있다.

현재 파이-3 미니는 사용 가능한 단계이고 다른 버전도 출시될 예정이다. 마이크로소프트 연구진은 온라인에 공개된 Phi-3에 대한 기술 보고서에서 Phi-3를 4비트로 양자화할 수 있어 약 1.8GB의 메모리만 차지하므로 모바일 기기에 배포하기에 적합하다고 밝혔다.

실제로 연구진은 이미 양자화된 Phi-3 미니 모델을 A16 바이오닉 칩이 기본적으로 실행되는 아이폰 14에 배포하여 성공적으로 테스트했다. 작은 크기에도 불구하고 이 모델은 학술 벤치마크와 내부 테스트를 통해 측정한 결과, 전반적 성능이 믹스트럴(Mixtral) 8x7B 및 GPT-3.5와 같은 모델에 필적했다고 마이크로소프트 연구진은 밝혔다.

파이-3는 다양한 오픈소스의 "심하게 필터링된" 웹 데이터와 합성 LLM에서 생성된 데이터를 혼합하여 학습했다. 마이크로소프트는 두 단계의 사전 훈련을 실시했는데, 첫 번째 단계는 모델에 일반적인 지식과 언어 이해를 가르치기 위한 웹 소스로 주로 구성되었다. 두 번째 단계에서는 모델에 논리적 추론과 다양한 틈새 기술을 가르치기 위해 훨씬 더 엄격하게 필터링된 웹 데이터와 일부 합성 데이터를 병합했다.

“클수록 좋아” vs. “작을수록 좋아”

LLM이 결과를 도출하기 위해 이해해야 하는 수천억, 수조 개의 파라미터에는 비용이 수반되며, 그 비용은 컴퓨팅 성능이다. 칩 제조업체는 이미 생성형 AI용 프로세서를 만들기 위해 분주히 움직일 뿐만 아니라 LLM의 빠른 진화를 따라잡기 위해 고군분투하고 있다.

파이-3는 "클수록 좋다"는 사고방식을 버리고 대신 SLM이 학습되는 소규모 데이터 세트에 더 많은 전문화를 추구하려는 AI 개발의 지속적인 추세를 보여준다. 마이크로소프트는 SLM이 더 저렴하고 컴퓨팅 집약적이지 않은 옵션을 제공하면서도 LLM과 동등하거나 더 나은 성능과 추론 기능을 제공할 수 있다고 설명한다.

IDC의 글로벌 인공지능 및 자동화 연구 그룹 부사장 리투 조티는 소규모 언어 모델은 더 간단한 작업에 적합하도록 설계되었으며, 리소스가 제한된 조직에서 더 쉽게 접근하고 사용할 수 있으며 특정 요구 사항을 충족하도록 더 쉽게 미세 조정할 수 있다”라고 설명한다. 즉 LLM이 더 비용효율적이라는 것이 조티의 의견이다.

데이터 보안 업체인 젠데이터의 CEO 나라야나 파푸는 이미 많은 금융 기관, 이커머스 기업, 비영리 단체가 한 고객의 데이터를 특별히 학습하는 등 개인화할 수 있기 때문에 소규모 모델이 수용되는 것이라고 말했다.

파푸는 비즈니스 사용자를 위한 SLM의 다른 이점으로 잘못된 데이터를 전달하거나 착각할 가능성이 낮고 데이터 및 전처리에 대한 요구 사항이 적어 전반적으로 기업의 레거시 워크플로우에 통합하기가 더 쉽다는 점을 꼽았다.

그러나 SLM이 등장했다고 해서 LLM이 공룡 같은 길을 간다는 뜻은 아니다. 조티는 다만 기업이 자사 시나리오에 가장 적합한 모델이 무엇인지 결정할 선택의 폭이 넓어진 것이라고 설명했다. “어떤 기업은 작은 모델만 필요할 수도 있고, 어떤 기업은 큰 모델이 필요할 수도 있으며, 대부분의 기업이 다양한 방식으로 두 모델을 결합하려고 할 것”이라고 덧붙였다.

아직 완벽한 수준은 아니다

마이크로소프트는 기술 보고서에서 SLM이 특정 장점을 가지고 있지만 단점도 있다고 인정했다. 연구진은 파이-3가 대부분의 언어 모델과 마찬가지로 "사실적 부정확성(또는 환각), 편견의 재생산 또는 증폭, 부적절한 콘텐츠 생성, 안전 문제"에 여전히 직면해 있다고 지적했다.

파이-3 미니는 작은 크기로 인한 한계가 있다. 보고서는 “파이-3 미니는 훨씬 더 큰 모델과 언어 이해나 추론 수준이 비슷하지만, 여전히 특정 작업에서는 크기로 인한 근본적 제약을 받는다”라고 설명했다.

예를 들어 파이-3 미니는 많은 양의 "사실적 지식"을 저장할 수 있는 용량이 없지만, 연구진은 검색 엔진과 페어링해 한계를 보완할 수 있다고 주장했다. 미니 모델의 용량 관련 약점은 대부분 언어를 영어로 제한했다는 점인데, 향후 반복 작업에는 더 많은 다국어 데이터가 필요할 것이기 때문이다.

그럼에도 연구진은 훈련 데이터를 신중하게 선별하고 테스트에 참여하여 "모든 차원에서" 이러한 문제를 "상당히" 완화했다고 언급하면서 "이러한 문제를 완전히 해결하기 위해 앞으로 상당한 작업이 남아 있다"라고 말했다.
editor@itworld.co.kr

Elizabeth Montalbano editor@itworld.co.kr
저작권자 한국IDG & ITWorld, 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.