컨텐츠 바로가기

10.19 (토)

이슈 로봇이 온다

[영상] “먹을 것 좀 줄래?” 로봇이 사과를 건넨다…인간처럼 추론

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
한겨레

피규어 사가 선보인 휴머노이드 로봇 ‘피규어01’이 먹을 것을 달라고 하자 사과를 집어 건네는 모습. 피규어 시연 영상 갈무리

<이미지를 클릭하시면 크게 보실 수 있습니다>


챗 지피티(GPT) 개발사인 오픈에이아이와 로봇 스타트업 피규어가 생성형 인공지능(AI)을 통해 실시간으로 대화하고 스스로 추론해 움직이는 휴머노이드 로봇을 선보였다.



피규어는 휴머노이드(인간형) 로봇 ‘피규어01’의 최신 시연 동영상을 13일(현지시각) 공개했다. 영상에서 탁자 앞에 선 시연자가 “뭔가 먹을 것을 줄 수 있느냐”고 묻자 로봇은 접시 위의 빨간 사과를 집어 건넨다. 질문자가 사과를 달라고 구체적으로 지시하지 않았는데도 스스로 판단한 것이다. 열 손가락의 움직임도 자연스럽다. (▶영상 보기 https://www.youtube.com/watch?v=Sq1QZB5baNw&ab_channel=Figure )



이어 시연자가 “쓰레기를 치우는 동안 왜 사과를 줬는지 설명해 달라”며 쓰레기를 탁자 위에 붓자, 쏟아진 쓰레기들을 정리하는 동시에 “탁자 위에 먹을 수 있는 것은 사과 뿐이었다”고 대답한다. 또 시연자가 “지금 상황에서 앞에 있는 접시는 어디로 가야 할까?”라고 묻자 “건조대에 들어가야 할 것 같다”고 대답하고, 이후 식기건조대로 옮기는 작업까지 수행한다.



이 영상을 보면, 로봇은 시각적 추론에 따른 언어 이해와 판단이 가능하다. ‘눈’에 보이는 것을 설명하고, 먹을 것을 달라고 요청하면 그 중 사과를 집어 건네주며, 상황을 판단해 제각기 흩어진 쓰레기들을 주워담으며 탁자 위를 정리하기까지 동작 구현도 무리가 없다. 피규어 쪽은 “(로봇에) 탑재된 카메라를 오픈에이아이로 학습된 시각언어모델(VLM)에 입력하고, 신경망에서 동작을 추출한다”며 “로봇은 원격조정이 아니라 엔드투엔드(end-to-end) 신경망으로 움직이고 있다”고 밝혔다.



이는 오픈에이아이가 피규어 사와 제휴해 차세대 인공지능 모델을 내놓겠다고 밝힌 지 2주만에 공개된 업데이트 영상이다. 피규어 사는 테슬라와 보스턴다이내믹스의 엔지니어들이 주축이 되어 2022년 설립한 곳으로, 최근에는 오픈에이아이를 비롯해 제프 베이조스 아마존 창업자와 엔비디아, 마이크로소프트 등으로부터 우리 돈 약 1조원에 달하는(6억7500만 달러) 투자금을 유치하여 빅테크 업계의 화제로 떠오른 바 있다.



정유경 기자 edge@hani.co.kr



▶▶한겨레의 벗이 되어주세요 [후원하기]
▶▶한겨레 뉴스레터 모아보기▶▶[기획] 누구나 한번은 1인가구가 된다


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.