배경훈 부총리 겸 과학기술정보통신부 장관과 하정우 청와대 AI미래기획수석 등 참석자들이 지난달 30일 오후 서울 강남구 코엑스 오디토리움에서 열린 '독자 AI파운데이션 프로젝트' 발표회에서 기념촬영을 하고 있다./뉴스1 |
정부의 ‘국가대표 AI 모델 프로젝트’에 참여하고 있는 정예팀들의 자격 논쟁이 업스테이지, 네이버 정예팀에 이어 이번엔 SK텔레콤 정예팀으로 번졌다. 국가대표 AI 모델 프로젝트는 한국만의 주체적인 AI 모델을 구축한다는 목표로 추진 중인 정부의 핵심 사업이다. SK텔레콤은 지난달 30일 과학기술정보통신부가 주최한 프로젝트 1차 발표회’에 제출한 초거대 AI 모델 ‘A.X K1’이 중국 모델 ‘딥시크’와 유사하다는 지적에 대해 “구조적으로 상이하다”고 반박했다.
SK텔레콤은 8일 “A.X K1은 5190억개의 동일한 파라미터 수가 세계적으로 보고된 적 없는 독자적 구조를 가진 모델”이라며 이같이 말했다.
이날 업계에서는 SK텔레콤의 A.X K1이 중국 딥시크(DeepSeek) V3 모델의 핵심 아키텍처로 알려진 MLA(Multi-head Latent Attention)와 MoE(Mixture of Experts) 세부 설정값(파라미터)과 유사하다는 주장이 나왔다.
SK텔레콤은 “A.X K1은 가중치 면에서 모든 파라미터를 임의 초기화한 상태에서 학습한 모델로, 독자 개발한 모델”이라며 “딥시크와 유사하다고 언급한 부분은 ‘인퍼런스 코드’로, 공개된 모델을 실행할 때 편의를 위해 지원하는 코드”라 설명했다. 이어 “이는 프롬 스크래치에서 독자성을 이야기하는 학습 코드와 구별되며, 인공지능 업계도 이를 프롬 스크래치 훼손 요소로 보고 있지 않다”고 덧붙였다. 프롬 스크래치는 AI 모델 맨 첫 단계부터 모두 직접 구축하는 방식을 말한다.
이승현 포티투마루 부사장은 이날 페이스북에 A.X K1과 관련해 “앞서 SK텔레콤 모델이 프롬 스크래치인지 아직 잘 모르겠다는 글을 올렸는데 고생하신 SK텔레콤 분들께 죄송하다”며 “SK텔레콤은 무려 5190억 파라미터라는 가장 큰 규모를 자랑했는데 이는 100% 프롬 스크래치로 학습했다”며 “딥시크의 MLA와 젬마의 듀얼 놈 등을 차용했지만, 양적 확장을 통해 최적화했고 프롬 스크래치 이상의 가치를 보여줬다”고 평가했다.
앞서 업스테이지도 중국 지푸AI의 ‘GLM-4.5-에어’ 모델을 베꼈다는 의혹을 받았다. 하지만 회사 측은 직후 인퍼런스 코드 스타일을 참조한 것일 뿐이며 오픈소스 호환성을 위한 표준적 방식이라는 입장으로 반박했다.
네이버클라우드 역시 멀티모달 AI 모델의 핵심 구성 요소인 인코더와 가중치를 중국 알리바바의 큐웬 2.5 모델에서 차용했다는 논란이 불거졌지만, 외부 인코더를 전략적으로 채택한 것은 맞지만, 이는 프롬 스크래치 원칙을 훼손한 것은 아니라고 해명했다.
일각에서는 정부가 AI 모델 개발에서 프롬 스크래치의 기준을 규정하지 않아 논란이 커졌다고 보고 있다.
안상희 기자(hug@chosunbiz.com)
<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
