토종 오픈소스 AI ‘엑사원’ 개발
차기버전에 행동모델 탑재 추진
“분야별 특화된 초지능 구축이 목표”
차기버전에 행동모델 탑재 추진
“분야별 특화된 초지능 구축이 목표”
배경훈 LG AI연구원장. |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이달초 LG AI연구원이 공개한 오픈소스 인공지능(AI) 모델 ‘엑사원(EXAONE) 3.5’는 전세계 AI 시장에 큰 충격을 던졌다. 3.0을 발표한지 불과 4개월만에 공개한 차기버전으로 장문처리와 사용 성능 등 주요 벤치마크 평가에서 메타의 라마와 알리바바 큐원을 뛰어넘었기 때문이다. 구글과 오픈AI 등 글로벌 빅테크가 주도하는 AI 전쟁에서 한국형 거대언어모델(LLM)로서 거둔 성과라는 점에서 더욱 주목된다.
특히 LG AI연구원은 음성으로 명령을 내리면 원하는 상품 검색부터 구매·결제, 배송 요청까지 자동으로 처리하는 ‘대규모 행동모델(Large Action Model)’에 대한 프로토타입을 개발했다. 언어모델이 한국어나 영어와 같은 언어를 생성하는 AI라면, 행동 모델은 사람들의 패턴을 학습해 행동을 예측하고 모방해 실행에 옮기는 인공지능이다. LG AI연구원을 이끄는 배경훈 원장은 13일 매일경제신문과의 인터뷰에서 “LAM으로 AI 패러다임이 바뀔 것”이라며 “향후 특정 분야에 특화된 초지능(ASI) 솔루션 개발로 모든 분야에서 효과를 내는 AI를 구축하겠다”고 강조했다.
다음은 일문일답.
“LG의 AI모델 발표에 대한 기대감 상당”
―엑사원 3.5를 오픈소스로 공개한 후 국내외에서 관심이 높다.▶올해 엑사원 3.0인 7.8B(78억개 파라미터) 모델을 공개한 데 이어, 엑사원 3.5로 고사양 환경에서 고난도 작업을 처리할 수 있는 32B, 범용적인 용도로 사용할 수 있는 7.8B, 스마트폰·태블릿PC에 내장할 수 있는 초경량 2.4B 등 3종을 배포했다. 그 결과 앞으로 LG도 본격적인 AI 경쟁에 뛰어드는 것 같다는 의견을 많이 들었다. 아시아에서 중국 알리바바의 QWEN(큐원)과 동등하거나 1~2위권을 다투는 것 같다는 피드백도 나오는 등 LG의 AI모델 발표에 대한 기대감이 상당하다고 느꼈다.
―엑사원 1.0 당시 3000억개 였던 파라미터가 이후 버전에는 줄었는데.
▶파라미터가 많을수록 성능은 좋아지지만 그만큼 운영비용이 늘어난다. 단순히 성능을 자랑하기 위한 것이 아니라 실제 현장에서 적용하기 위해 모델을 만든 것인 만큼 가격 요소에 대한 고려가 필요했다. 그래서 파라미터를 줄이면서도 성능은 높이는 전략으로 접근했다. 엑사원 3.5의 경우 산업현장에서 많이 활용하는 7.8B부터 LG 내부에서 수요가 많은 2.4B까지 크기는 작지만 기존보다 성능을 향상시킨 모델로 선보였다.
엑사원 모델의 특징은 멀티스텝 러닝
배경훈 LG AI연구원장 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
―주요 빅테크가 만든 대형언어모델(LLM)과 비교했을때 엑사원이 가진 차별점은 무엇인가.
▶LG가 보유한 사업 영역에 우선적으로 적용할 수 있는 AI를 먼저 개발하고 있다. 실제 업무에 활용하기 위해 문서 인식과 분석 쪽으로 집중한다. 이를 통해 바이오와 소재 개발, 가격 예측과 서플라이 체인 모델을 구축하는 작업에도 자체 LLM을 활용하고 있다.
엑사원 모델의 특징은 멀티스텝 러닝이다. 약 8조개에 달하는 데이터를 활용했다. 초반에는 일반적인 데이터를 통해 학습을 하고 이후 분야별로 더 깊은 심화학습을 단계적으로 진행하는 것이다. 특정한 전문 분야의 경우 데이터가 부족하고 풀기 어려운 문제가 많아 AI를 적용하기 힘든 경우가 많았다. 그러나 이렇게 AI를 학습하면 데이터가 적어도 충분히 높은 성능을 낼 수 있다.
―글로벌 빅테크인 메타 역시 같은 오픈소스 LLM 전략을 펴고 있는데 대응이 가능한가.
▶엑사원이 다른 경쟁사 오픈소스 모델과 다른 점은 데이터의 신뢰성과 투명성이다. 데이터를 구매하거나 파트너십을 통해 확보하고, 정제에도 상당한 공을 들였다.
개발 목적에 맞는 모델을 잘 만들면 된다고 생각한다. 실제 우리가 현장에 필요한 AI모델의 경우 2.4B, 7.8B, 32B 정도면 충분하고 이런 모델을 조합하면 AI에이전트로도 활용이 가능하다. 특히 성능면에서 메타의 라마가 사용한 데이터의 절반 수준으로도 라마 이상의 성능을 구현해냈다. 효율성 측면에서 상대적으로 적은 데이터로도 고성능을 낼 수 있는 기술을 확보한 것이다. 엑사원을 오픈소스로 공개한 것도 성능에 대한 자신이 있었기 때문이다.
한국도 이런 모델을 만들 수 있다는 것을 알려 LG 뿐 아니라 많은 국내 기업들이 AI에 투자할 수 있는 환경이 만들어지길 바랐다. 또 LG 계열사에서도 엑사원을 적극적으로 활용하게 하려면 외부에서 공신력을 인정받아야 한다고 봤다. 계열사의 AI 성과를 높이기 위해서는 생태계 확산이 중요하다고 판단했다. LG 구성원들이 엑사원을 많이 사용하고 이에 대한 피드백을 전달받아 다시 업그레이드하는 구조를 만든 것이다. 오픈소스로의 전환이 오히려 LG AI를 강화하는데 보탬이 될 거라고 본다.
소버린AI보다 인클루시브(inclusive, 보편적인) AI가 더 중요
<이미지를 클릭하시면 크게 보실 수 있습니다> |
―국내에서 AI 파운데이션 모델을 만드는 기업이 사실상 LG를 포함해 극히 일부밖에 남지 않았다. 소버린AI(자체 인프라와 데이터를 활용해 특정 국가나 기업에 종속되지 않은 독립적 AI를 구축하는 개념)의 최전선에 있다는 책임감이 상당할 것 같은데.
▶소버린AI보다 인클루시브(inclusive, 보편적인) AI가 더 중요하다. 아무리 우리가 소버린AI로 “독도는 한국땅”이라고 학습시켜도 대부분의 AI모델이 이를 부정한다면 앞으로 독도 영유권을 주장하기 어렵게 될 수도 있다. 글로벌향의 보편적인 AI를 개발해 세계에서 통용될 수 있는 이야기를 하면서 여기에 우리의 차별점을 추가하는 것이 필요하다. 이렇게 만든 AI모델을 미국, 중국에서 활용하고 반대로 우리가 타국의 모델도 쓰면서 이를 통해 한국어 모델을 발전시키는 방향으로 가야 한다.
―글로벌향의 AI모델을 개발하기 위해서는 빅테크와의 그래픽처리장치(GPU) 확보 경쟁을 벌여야 하는데.
▶인프라에 대한 고민은 있다. 하지만 이제는 패러다임이 바뀌었다. 무조건 빅모델로 파라미터 갯수나 벤치마크 성능을 자랑하던 것에서 이제는 실제 수익화 가능성에 더 집중하기 시작했다. 이런 관점에서 우리의 필요에 맞는 모델 크기를 정한거다. 빅테크 수준의 파라미터 크기를 요구하지 않으면서도 오히려 더 빠르고 저렴하면서도 그만큼의 성능을 만들어낼 수 있다면 LG 모델을 활용하겠다는 수요가 많다.
향후 트렌드가 될 액셔너블(Actionable) AI를 위한 연구에 집중
엑사원 3.5 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
―AI 기술 발전에 따라 업계에서 주목하는 분야도 매번 달라지고 있다. 엑사원 차기 버전에서 집중할 분야는 어디인가?
▶추론 성능은 기본적으로 계속 강화할 것이다. 특히 향후 트렌드가 될 액셔너블(Actionable) AI를 위한 연구에 집중하고 있다. 앞으로 AI 패러다임은 현재의 LLM에서 LAM으로 바뀔 것이다. 사람이 아니라 AI가 스스로 판단하고 행동까지 하는 비즈니스 모델이 될 것이다. AI가 사람을 대신해 원하는 동영상을 찾아 틀어 주고, 가격을 비교해 대신 물건을 구매하는 시대가 펼쳐질 것이다. 내년에는 상용화가 가능할 것이다. 시장 반응을 보고 엑사원 다음 버전에 반영할지 결정할거다.
―현재 LG를 포함한 주요 기업들의 AI 수준은 제한적 AI(ANI)로 볼 수 있을 것 같다. 향후 몇년 안에 범용 인공지능(AGI) 단계로 발전할 수 있을 것으로 예상하나?
▶범용적인 수준에서 모든 문제를 풀 수 있는 AGI보다는 궁극적으로 도메인 스페시픽(Domain Specific·특정 영역 특화)한 초지능(ASI)을 추구하고 있다. 단백질 구조 예측에 성공한 구글 딥마인드의 알파폴드의 경우 AI 분야의 축적된 노하우를 화학이라는 도메인 영역과 결합해 새로운 신기원을 만들었는데 이게 그와 같은 ASI의 시작이라고 본다.
전문 분야에 특화된 대형멀티모달모델(LMM)을 잘 구축하면 가격이나 수요 예측을 통해 기업의 경쟁력을 높이는게 가능하다. LMM에 전세계 뉴스 데이터를 실시간으로 반영하는 방식으로 관련 분야에서 어느정도 성과를 냈다. 지난해 뉴욕증권거래소(NYSE)에 상장한 ‘LG 크래프트 AI-파워 US 라지캡 코어(LQAI)’ 상장지수펀드(ETF)가 대표적이다. AI가 시장을 예측해 포트폴리오를 구성하고 리밸런싱 해 연 수익률 30%를 넘었다. LG가 영위하는 모든 비즈니스 영역에 특화된 AI를 적용해서 계속 고도화하는 것이 목표다.
LMM 모델을 포기한 나라가 만든 NPU를 과연 어떤 곳이 사용할까?
배경훈 LG AI연구원장 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
―AI 발전으로 관련 기업들로 이뤄진 거대한 산업 생태계가 만들어졌다. 여기서 LG를 포함한 한국 기업들은 어느정도의 위치라고 보나?
▶많이 어려운 상황이다. 어렵게 한국형 신경망처리장치(NPU)를 개발해도 아직 이것을 적극적으로 도입하는 기업도 많지 않고, LG처럼 언어모델을 만들기 위한 투자나 시도도 줄어들고 있다. 한국이 제조업 기반이다 보니 우리가 글로벌 빅테크처럼 할 수 있을까에 대한 막연한 두려움이 있는 것 같다. 미국과 중국 주도의 AI 시장에서 우리는 양쪽에 잘 협조하는 체계를 만드는게 맞지 않냐는 의견도 나온다.
하지만 그런 방향으로 간다고 해도 우리가 가지고 있는게 아무것도 없으면 결국 그들에게 끌려다닐 수밖에 없다. 우리가 자체 모델을 개발하는 것처럼 한국도 AI 경쟁력을 갖추고 있어야 타국과의 협상에서도 목소리를 낼 수 있다. LMM 모델을 포기한 나라가 만든 NPU를 과연 어떤 곳이 사용할까? 그러면 국내 AI 밸류체인 자체가 도미노처럼 무너질거다.
한국, LG가 잘하는 (사업) 영역들이 있다. 이걸 우리의 AI 모델과 빨리 연결시켜서 그 분야만큼은 해외에 절대 내주지 말아야 한다. 기술과 서비스, 데이터, 이를 위한 한국형 반도체까지 하나의 비즈니스 파이프라인으로 만들어두면 글로벌 빅테크가 파고들 틈이 없어질 거다.
배경훈 LG AI연구원장은
△1976년 서울 출생 △광운대 전자공학 박사 △2006년 삼성탈레스 △2011년 SK텔레콤 △2017년 LG유플러스 △2019년 LG사이언스파크 AI추진단 단장 △2020 LG AI연구원장 △2023년 초거대AI추진협의회 회장 △2023년 개인정보보호위원회 AI프라이버시 민관 정책협의회 공동의장 △2024년 한국공학한림원 정회원 △2024년 국가인공지능위원회 위원[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.