하드웨어보다 움직임 어려운 이유
LLM‧LMM‧LAM으로 AI 학습시켜야
“실제 세상엔 학습 데이터 양 적어”
지난해 경기 고양시 킨텍스에서 열린 2024 로보월드에서 관람객이 2족 보행 휴머노이드 '앨리스'를 살펴보고 있다. 이번 전시는 291개 기업·기관이 880개 부스로 참여해 이날부터 26일까지 나흘간 열린다. 조현호 기자 hyunho@ |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
휴머노이드(인간형 로봇)의 핵심 기술은 인공지능(AI)이다. 정형적이고 규칙적인 움직임이 아닌, 다양한 일을 처리해야 하기 때문에 AI에 기반한 고도화된 시스템이 필수적이다. 글로벌 테크 기업들이 휴머노이드 학습 플랫폼 개발에 나서는 이유다. 향후 휴머노이드 AI 기능이 얼마나 진화하는지에 따라 시장의 판도 역시 재편될 가능성이 크다는 데 힘이 실린다.
로봇 전문가들은 휴머노이드 상용화 전 개발 단계의 관건으로 AI를 꼽는다. 하드웨어 측면의 발전도 중요하지만, 휴머노이드에 AI를 탑재한 전체 시스템 구축이 더 어려운 과제이기 때문이다.
기존 산업 현장에 투입됐던 로봇은 프로그래밍이 된 규칙에 따라 움직였지만, AI에 기반한 휴머노이드는 스스로 학습하고 행동해야 한다. 인간과 같은 환경에서 생활하고 ‘인간처럼’ 행동을 수행해야 하기 때문에 AI를 통해 기술적으로 확장하는 것이 핵심이다.
휴머노이드 학습에 필요한 인공지능(AI) 모델 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
휴머노이드에는 텍스트를 학습하는 거대언어모델(LLM)과 텍스트, 오디오, 비디오를 학습하는 거대멀티모달(LMM), 움직임까지 인식해 학습하는 거대행동모달(LAM)까지 입력된다. LLM을 토대로 구동되는 오픈AI의 ‘챗GPT’와 비교도 안 되게 훨씬 넓고 복합적인 업무 수행과 움직임이 가능해지는 셈이다.
똑같은 기기를 만들어도 AI 학습량에 따라 제품의 완성도와 상용화 가능성은 크게 갈린다. 휴머노이드를 만드는 기업들의 AI 학습에 대한 고민도 커질 수 밖에 없다.
휴머노이드 이미지. 챗GPT로 생성한 이미지. |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
김병훈 LG전자 최고기술책임자(CTO)는 “실제 세상(Real world) 데이터로 휴머노이드를 계속 학습시켜야 하는데, 가상 세계(Vertual world)에 비해 데이터가 너무 적다”고 말했다.
김 CTO는 엔비디아의 AI 개발 플랫폼인 ‘코스모스’와 ‘옴니버스’를 거론하며 “요즘 만들어지는 소프트웨어 도구로 실제 세상을 학습한 수준의 휴머노이드를 생산할 수 있다거나, 물리적인 움직임을 이해시키고 동작 시뮬레이션을 할 수 있는 개발 도구가 잘 준비되면 가사용 휴머노이드는 빠르게 진입할 수 있을 것”이라고 분석했다.
미국 항공우주국(NASA·나사)이 협력하고 있는 스타트업 앱트로닉의 휴머노이드 로봇 ‘아폴로’. 출처 앱트로닉 웹사이트 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
신규식 한양대 로봇공학과 교수는 “휴머노이드에는 수많은 모터가 장착되고, 이를 소프트웨어로 모두 통제해서 인간이 원하는 행동과 모션을 생성해야 하는데 이 부분이 어려운 것”이라며 “AI로 학습을 시키려 하지만, 사실은 AI보다 한 단계 더 위에 있는 기술로 학습시켜야 한다는 말이 나올 정도로 어렵다”고 설명했다.
신 교수는 “휴머노이드를 한 차원 더 높게 발전시키기 위해서는 로봇공학과 뇌과학자의 협업이 필요하다”고 제언했다.
[이투데이/이수진 기자 (abc123@etoday.co.kr)]
▶프리미엄 경제신문 이투데이 ▶비즈엔터
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.