컨텐츠 바로가기

10.19 (토)

이슈 로봇이 온다

빅테크 뛰어든 AI로봇 시장, 휴머노이드 시대 가속…로봇에 자연어 명령

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
지난 1월 15일(현지시각) 일론 머스크 테슬라 최고경영자(CEO)는 자신의 엑스(옛 트위터)에 옵티머스가 검은색 반소매 티셔츠를 개는 모습이 담긴 영상을 게시했다. 해당 영상에서 로봇은 바구니에 담긴 옷을 오른손으로 들어 올린 뒤 탁자 위에 가지런히 펼쳐 놓는다. 양팔 부분을 각각 안쪽으로 접어 넣고, 옷의 위아래를 각각 접어 올리는 등 30초 만에 옷을 정리하는 모습이다. 머스크는 댓글로 “옵티머스는 아직 이 작업을 자율적으로 수행할 수 없지만, 임의의 환경에서 자율적으로 수행할 수 있게 될 것”이라고 했다. 다만 이 기능이 언제 현실화될지는 언급하지 않았다. 로봇이 공장 내 단순노동부터 가사도우미 등 인간의 삶을 도와주는 역할을 하게 만들겠다는 것이 머스크의 계획이다.

매일경제

테슬라는 장기적으로 공장에 사람이 아예 없는 ‘완전 자동화’를 지향하고 있다. <사진 연합뉴스>

<이미지를 클릭하시면 크게 보실 수 있습니다>


AI 탑재한 똑똑한 로봇 시대
기업들이 AI·머신러닝과 클라우드 컴퓨팅 기술을 로봇에 접목하기 시작하면서 올해 로봇 산업이 변혁기를 맞을것이라는 전망이 나온다. 그동안 인간이 해야 했던 반복적이고 고된 노동을 더 많은 분야에서 로봇이 대신해줄 수 있다는 의미다. 단순히 물건을 집어 새로운 위치에 내려놓는 수준에서 벗어나 AI를 통해 로봇이 일상적인 상황을 예측하고 사람과 상호작용할 수 있는 시대가 코앞에 다가오고 있는 것이다. 로봇이 사람을 대신해 유의미한 노동력을 제공할 수 있게 된다면, 제조·물류 등 산업 전 영역에서 ‘노동혁명’ 수준의 변화가 이뤄질 수 있다는 전망도 있다. 이를 두고 로봇업계 일각에서는 ‘1차 로봇혁명’이라고 표현하기도 한다.

이 분야에서 앞서가는 회사는 테슬라다. 테슬라는 지난해 말 인간형 로봇인 옵티머스의 최신 버전을 보여주는 영상을 공개했다. 새롭게 공개된 영상에서 2세대 옵티머스는 전보다 빠른 속도로 걷고 다섯 손가락을 부드럽게 움직일 뿐만 아니라 스쿼트를 하거나, 달걀을 깨뜨리지 않고 엄지와 집게손가락으로 집는 등 훨씬 정교한 움직임을 보였다. 줄리안 이바츠 테슬라 수석 소프트웨어 엔지니어는 “이 비디오의 모든 것은 컴퓨터그래픽이 아니라 실제이며 모든 것이 실시간으로 속도를 높인 것이 없다”고 설명했다. 지난 2022년 9월 처음 공개된 1세대 모델은 위태롭게 걷는 등 성능에서 기대 이하의 모습을 보였다. 하지만 새롭게 발표된 옵티머스 젠2(2세대)는 훨씬 진화된 성능을 자랑했다. 테슬라에 따르면 젠2는 30% 더 빠르게 걸을 수 있고 무게도 10㎏을 줄였다.

매일경제

업계에서는 머지않아 테슬라가 공장 투입과 판매 등 옵티머스 상용화에 나설 것으로 보고 있다. 로봇이 공장에서 일하거나 집사, 가사도우미, 인간의 동반자로 활용되는 것이다. 머스크는 “로봇이 풍요로운 미래, 빈곤이 없는 미래를 만들 것이다. 옵티머스를 성능이 매우 우수한 로봇으로 만들고 수백만 대를 양산할 것”이라고 장담했다. 당장 로봇을 팔아 매출을 올리기보다는 테슬라 공장을 테스트베드로 삼아 기술 고도화에 나서는 전략을 구가할 전망이다.

일론 머스크의 로봇 야심
머스크가 로봇 산업에서 그리는 ‘빅픽처’는 하드웨어(로봇) 뿐 아니라 소프트웨어(AI)까지 아우르고 있다. 실제로 테슬라의 휴머노이드 로봇 개발은 인공지능(AI) 개발 프로젝트의 한 부분에 들어간다. 신경망 훈련을 통해 로봇이 기본적인 작업을 수행할 수 있도록 개발 중이다.

매일경제

테슬라가 인공지능(AI) 휴머노이드 ‘옵티머스’ 2세대의 시연 모습을 담은 영상을 1월 12일 공개했다.

<이미지를 클릭하시면 크게 보실 수 있습니다>


현재 기술 수준에서는 로봇이 인간을 보조해 함께 일하는 방식이 먼저 보편화될 가능성이 높다. 이 과정에서 로봇의 안전 문제도 부각될 수 있다. 2021년엔 테슬라의 생산 공장에서 제조 로봇이 사람을 공격해 중상을 입히는 사건이 발생했다. 영국 ‘더타임스’는 미국 산업안전보건청(OHSA)에 제출된 부상 보고서를 인용해 2022년 테슬라 텍사스주 오스틴의 기가팩토리 근로자 21명 중 1명꼴로 부상을 입었다고 보도했다.

테슬라는 장기적으로 공장에 사람이 아예 없는 ‘완전 자동화’를 지향하는 것으로 보인다. 팬데믹과 파업, 안전사고 같은 이슈에서 자유롭고 사람보다 더 빠르면서도 더 오랜 시간 일하는 로봇을 꿈꾸고 있는 것이다. 테슬라는 옵티머스가 향후 3~5년 이내에 2만달러의 가격으로 상용화될 것이라고 밝혔다. 우리 돈 약 3000만원으로 휴가 없이 365일 밤낮으로 일하는 노동 로봇이 등장하는 셈이다.

로봇용 AI모델 기술 경쟁 치열
초거대 AI를 로보틱스와 접목하려는 빅테크의 물밑 경쟁도 치열하다. 디지털 공간 내에만 머무르고 있는 AI 기술을 로봇에 적용해 기계가 사람처럼 인식·행동할 수 있도록 유도하고 챗GPT처럼 자연어 명령만으로 로봇을 조종하는 단계로 넘어가기 위한 시도가 곳곳에서 이뤄지고 있는 것이다.

이러한 흐름은 AI모델이 급격하게 발전한 덕분에 기술 개발 속도에 탄력이 붙었다. AI 로봇 시장은 향후 폭발적인 성장세를 보일 것으로 전망된다. 분석업체 넥스트MSC에 따르면, AI 로봇 시장은 2021년 956억6000만달러에서 연평균 32.95% 성장해 2030년 1847억달러로 2배 가까이 커질 전망이다. 넥스트MSC는 “AI 로봇은 딥러닝을 사용해 명시적인 지시를 따르지 않고도 학습하고 적응하는 로봇”이라면서 “사무실 서비스에 AI 로봇을 활용하는 사례가 확대되면서, 시장 성장이 더욱 가속화되고 있다”고 말했다.

고도의 ‘로봇 두뇌’를 개발하기 위한 경쟁에도 불이 붙었다. 챗GPT 등장 이후 기업들의 자체 대규모언어모델(LLM) 개발이 활발했듯, 기업들은 자체적인 로봇용 AI모델 구축에 나서기 시작했다. 토요타연구소(TRI)는 지난해 9월 AI를 통해 로봇을 고도화하는 교육 기법을 공개하면서 이를 로봇용 ‘대규모행동모델(Large Behavior Model)’로 정의했다. TRI는 “(자체 개발 LBM에) 2024년 말까지 1000가지의 새로운 기술을 로봇에 가르칠 것”이라고 밝혔다.

구글은 지난해 7월 로봇을 위한 AI모델인 로보틱스 트랜스포머2(RT-2)를 공개했다. 프로그래밍이나 별도의 훈련 없이도 스스로 학습해 명령을 이해하는 로봇 특화 AI모델로 지난해 공개한 RT-1의 개량판이다. RT-1의 경우 물건을 들어 옮기고 서랍을 여는 작업을 수행하기 위해 엔지니어의 프로그래밍 작업이 일일이 필요했다. RT-2는 할 일을 일일이 입력하지 않아도 인터넷상 이미지와 텍스트를 바탕으로 스스로 기술을 습득해 실행 방법을 찾아낸다. RT-2를 탑재한 로봇은 인터넷 웹상에 나오는 시각적 정보를 학습해 이미 쓰레기가 무엇인지에 대한 생각을 갖고 있으며 훈련 없이도 이를 식별할 수 있다. 예컨대 로봇에게 ‘못을 박고 싶은데 망치가 없다’고 말하면 카메라 센서로 물건을 인식해 주변에 있는 돌덩이를 집어주는 식이다. 구글은 이를 ‘시각-언어-행동’ 모델이라 소개하고 있다. 뉴욕타임스는 “RT-2가 LLM을 일종의 인공두뇌처럼 사용하고 있다”고 분석했다. 구글은 당장 AI 로봇을 출시하거나 판매할 계획이 없고, 해당 모델을 통해 실물 로봇을 훈련하고 있는 것으로 알려졌다.

엔비디아는 로봇을 훈련하기 위한 알고리즘을 자동으로 생성하는 AI 에이전트 ‘유레카(Eureka)’를 공개했다. 오픈AI의 LLM GPT-4의 자연어 기능과 강화학습을 결합해 로봇이 복잡한 기술을 배울 수 있도록 돕는다. 사람처럼 손가락으로 펜을 돌리거나, 서랍과 캐비닛 열기, 공 던지기와 잡기, 가위 사용 등 30여 가지 작업을 수행할 수 있다고 회사 측은 밝혔다.

네이버는 ‘로봇 눈’ 강화
네이버는 로봇을 일상 세계로 끌어내기 위해 ‘로봇의 눈’을 강화하고 나섰다. 네이버는 글로벌 AI 전진기지인 ‘네이버랩스 유럽’이 개발한 3차원(3D) 비전 파운데이션 모델 ‘크로코’를 상반기에 자사 로봇에 적용할 예정이다. 1784에서 활동 중인 루키와 데이터센터 ‘각 세종’에 위치한 3종 로봇 등 로봇 120여 대가 그 대상이다. 크로코는 마치 사람이 두 눈으로 3차원을 인식하는 것처럼 로봇 눈을 강화하는 모델이다.

매일경제

네이버랩스 유럽의 마틴 휴멘버거 연구소장이 ‘로봇AI’를 위한 파운데이션 모델의 필요성과 네이버랩스가 연구 중인 ‘크로코(CROCO)’를 설명하고 있다.

<이미지를 클릭하시면 크게 보실 수 있습니다>


챗GPT 등에 쓰이는 LLM이 수많은 문장 데이터를 이용해 학습한다면 크로코는 동일 장면에 해당하는 다른 시점의 이미지를 통해 로봇에 탑재된 AI가 현실 세계를 이해하도록 가르친다. 이를 통해 클라우드에 연결된 로봇들이 각종 장애물을 살피고 로봇에 특화된 공간 밖에서도 인지·행동·상호작용할 수 있도록 돕는다. 사람이 두 눈으로 3차원을 인식하는 것과 비슷한 원리다.

’로봇 눈’을 획기적으로 발전시키면 사람과의 상호작용 측면에서도 큰 변화를 기대할 수 있다. 로봇에게 사람은 매우 복잡한 이해의 대상이다. 로봇이 다양한 상황에서 사람의 행동과 의도를 이해할 수 있다면, 안전하게 상호작용할 수 있는 로봇 서비스를 제공할 수 있는 길이 열리는 셈이다.

AI는 ▲자율주행 ▲작업처리 능력 ▲로봇의 의사결정 능력 ▲로봇과 인간의 상호작용 ▲에너지 효율성 강화 측면에서 로봇 발전을 앞당기고 있다. 챗GPT, 바드 등 챗봇을 중심으로 생성형AI 생태계가 확장되고 있지만 현재까지는 디지털 공간 내에서 생산, 활용되는 것이 대부분이다. LLM을 로봇에 적용, 자연어 명령만으로 로봇을 조종하거나 창작활동을 하는 시대가 올해부터 서서히 열릴 것으로 보인다. 이에 대해 디푸 탈라 엔비디아 임베디드·에지 컴퓨팅 부문 부사장은 “시뮬레이션을 통해 훈련되고 테스트된 생성AI 모델은 더욱 강력하고 유연하며 사용하기 쉬운 로봇을 구축하는 데 핵심적인 역할을 할 것”이라고 설명했다.

올해 빅테크의 생성AI를 튜닝해 하드웨어(로봇)의 동작을 제어하는 서비스를 내놓는 스타트업도 주목받을 가능성이 있다. 청소 로봇과 서빙 로봇 등 이미 실생활에 많이 보급된 로봇들을 중심으로 혁신적인 서비스가 나올 전망이다.

[황순민 기자]

[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.