컨텐츠 바로가기

09.17 (화)

배경훈 LG AI연구원장 “엑사원 3.0, 디스플레이·배터리 등 국가산업 지킬 선봉장”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

국회 인공지능 포럼 특별강연

LG 전문가AI ‘엑사원3.0’ 소개

“AI 실제 성과 증명이 핵심 관건”

헤럴드경제

배경훈 LG AI연구원장이 국회 인공지능 포럼 초청 특별강연에서 발표하고 있다. 김민지 기자

<이미지를 클릭하시면 크게 보실 수 있습니다>


[헤럴드경제=김민지 기자] “지금의 AI는 ‘환멸의 골짜기’ 단계에 진입했다고 볼 수 있다. 이를 벗어나기 위해서는 실제 산업현장에서 AI를 활용해 성과 및 수익을 내는 것이 관건이다.”

LG가 반도체, 디스플레이, 바이오 등 국가 산업에 특화된 ‘전문가 AI’로 다른 글로벌 빅테크 생성형 AI 서비스와 차별화를 두겠다고 밝혔다. 전세계에서 AI 시장을 둘러싼 경쟁이 치열해지는 상황에서, 다른 국가나 글로벌 기업이 종속되지 않고 독자적인 AI 서비스를 제공하는 ‘소버린AI’ 선봉장 역할을 하겠다는 포부다.

배경훈 LG AI연구원장은 10일 서울 영등포구 국회의원회관에서 ‘전문가 AI로 향하다: EXAONE(엑사원) 3.0 그리고 챗엑사원’이라는 주제로 열린 국회 인공지능 포럼 초청 특별강연에서 생성형 AI가 아직 완성된 형태에 도달하지 않아 여러가지 시행착오를 겪고 있는 상황에서 AI는 최근 ‘환멸의 골짜기’에 진입했다고 보여진다”며 “실제로 기업에 AI를 도입해서 사업적 성과를 증명해내는 것이 관건이고, 그 과정에서 성공 사례를 만들어내야 한다”고 말했다.

그러면서 “AI를 아주 적극적으로 활용하고 도입하는 기업들은 약 41%에 그치고 있으며, 아직 많은 기업들이 AI 도입을 검토하고 있는 단계”라며 “그 이유는 AI에 초기 투자를 하기 위해서는 고가의 그래픽처리장치(GPU) 등 기본적인 인프라를 구축하는데 많은 비용이 발생하고, 그 비용을 들였을 때 기존에 사람이 일하는 것 대비 얼마나 효율 및 수익을 낼 수 있을지 고민이기 때문”이라고 말했다.

배 원장은 초기의 생성형 AI가 범용적이고 보편적인 거대 언어 모델로 시작됐다면, 이제는 각 산업계에서 실제로 활용할 수 있는 수준의 지속 가능한 서비스를 만드는 것이 핵심이라고 봤다.

그러면서 “LG가 추구하는 AI는 전문가 AI로, ‘엑사원3.0’은 배터리·반도체·디스플레이 등 국가 보호 산업 현장의 애로사항을 학습해서 이를 해결하는데 필요한 특화 모델을 만들어낸 것”이라며 “LG가 자체적으로 가지고 있는 국가 인프라, 데이터, 기술력으로 만들어진 모델이라는 점에서 의미가 있다”고 강조했다.

그러면서 “제가 생각하는 ‘소버린 AI’는 대한민국 차원에서 지켜야 할 산업 영역을 지켜나가는 것”며 “반도체, 디스플레이 등 국가 핵심 보호 산업에서 중요한 데이터 정보 유출 없이 우리의 고유한 기술 노하우를 지키기 위해서는 자체적인 AI 역량을 갖춰 나가야 한다”고 말했다.

LG AI연구원은 지난 8월 자체 개발한 생성형 AI 엑사원3.0을 공개했다. 전작 2.0 버전 대비 추론 처리 시간은 56%, 메모리 사용량은 35% 줄어들고, 구동 비용은 72% 절감한 것이 특징이다. 하반기부터 LG계열사를 시작으로 정식 서비스를 시작했다.

배 원장은 “엑사원을 활용해 LG 계열사 중 하나의 공장 한 곳을 무인화한 사례가 있었다”며 “760명 정도의 작업자가 투입돼야 하는 것을 완전히 무인화로 바꿨는데, 이 무인 공정을 완성하기 까지 3년이 걸렸다”고 소개했다.

AI 인프라 측면에서 국산화도 중요하다고 봤다.

그는 “현재 엔비디아 GPU에 대한 의존도가 높은 상황인데 이런 AI 인프라도 어떻게 국산화시킬 수 있을까 종합적 대책이 필요하다고 생각한다며”며 “AI는 대한민국의 중요한 무기가 될 수도 있는데, 그 무기를 만드는 과정에서 저희 만의 노하우를 잘 지키고 그것을 중심으로 AI를 발전시켜 나가야 한다”고 말했다.

그러면서 향후 생성형 AI 서비스에서 유의미한 양질의 데이터를 정제하고 구성하는 것이 더 중요해질 것이라고 봤다.

그는 “엑사원 3.0을 만들 때 의미 있는 데이터를 중심으로 추리고, 카테고리별로 분류시켜 정제된 8조개의 데이터 토큰을 만드는데 주력했다”며 “그 결과 15조개 토큰을 학습한 경쟁 AI 서비스보다 적은 8조개만으로도 더 높은 성능을 만들어낼 수 있었다”라고 강조했다. 이어 “무조건 많은 데이터를 모은다고 좋은 게 아니라, ‘데이터를 어떻게 정제하고 구성해 효과적인 AI 아키텍처에 집어넣을 수 있는가’가 더 중요하다”고 말했다.

jakmeen@heraldcorp.com

Copyright ⓒ 헤럴드경제 All Rights Reserved.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.