컨텐츠 바로가기

11.01 (금)

"배 침몰 영화" 묻자 AI "타이태닉"…'안녕' 쓰자 "한국어 몰라"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
SBS

<이미지를 클릭하시면 크게 보실 수 있습니다>


▲ 15일(현지시간) 구글 연례 개발자 회의(I/O)에서 한 이용자가 '프로젝트 아스트라'(Project Astra)를 체험하는 모습

구글은 연례 개발자 회의(I/O) 이틀째인 15일(현지시간) 미 캘리포니아주 마운틴뷰 쇼어라인 엠피씨어터에서 '프로젝트 아스트라'(Project Astra) 체험행사를 가졌습니다.

개발자 회의 첫날인 전날 공개된 '프로젝트 아스트라'는 구글의 최신 AI 모델인 제미나이와 구글의 음성 모델을 기반으로 미래 AI 어시스턴트를 구현하기 위한 구글의 비전을 말합니다.

AI가 사람처럼 보고 듣고 음성으로 대화하면서 이용자의 개인 비서 역할을 하는 기능입니다.

앞서 구글이 공개한 시연 영상에는 휴대전화 카메라로 주변 상황을 보여주고 안경이 어디에 있는지를 묻자 이를 즉각 알려주고, 현재 위치를 묻자 정확하게 파악해 음성으로 이를 대답하는 모습이 담겼습니다.

이는 오픈AI가 지난 13일 공개한 보고 듣고 말하는 새로운 AI 모델인 'GPT-4o'(GPT-포오)와 앞으로 치열한 경쟁을 예고했습니다.

취재진은 구글이 마운틴뷰 쇼어라인 엠피씨어터에 마련한 부스에서 '프로젝트 아스트라'를 체험했습니다.

부스 안에는 벽에 대형 스크린이 걸려 있었고, 천장에는 스크린 앞에 있는 사물을 인식할 수 있는 카메라가 달려 있었으며, 스크린 앞에는 테이블이 마련돼 있었습니다.

테이블에 파인애플을 놓고 "이것이 무엇이냐?"(What is this?)라고 묻자, "파인애플"이라는 답이 돌아왔습니다.

대답은 음성과 함께 스크린 자막에도 나타났습니다.

파인애플 옆에 팽이를 올려놓으니 "파인애플이 친구를 찾은 것 같다"며 "다양한 색깔의 팽이"라고 말했습니다.

AI가 카메라로 테이블 위에 있는 사물을 인식해 대답한 것입니다.

이번에는 스크린에 빨간펜으로 자동차를 그려 놓고 무엇인지 물으니 "빨간색 자동차"라고 답했습니다.

바다에 비스듬하게 빠진 배를 그렸더니 "침몰하는 것 같다"고 말했고, "이 영화를 알 맞혀보라"고 했더니 "타이태닉"이라고 대답했습니다.

피아노와 강아지, 꽃게 등 여러 인형을 올려놓고 이야기를 만들어 달라고 하니 서로 공통점이 없는 듯한 이 사물을 연계해 간단한 동화도 금방 들려줬습니다.

또 테이블에 파인애플 등을 올려놓고 치운 뒤 방금 어떤 물건이 있었는지 말해달라고 하니 정확하게 얘기하며 '기억력'도 과시했습니다.

가끔 대답을 장황하게 늘어놓기도 했지만, 대화에 큰 지장이 없을 정도로 반응 속도도 느리지 않았습니다.

구글은 이 AI의 정확한 반응 속도를 공개하지는 않았지만, "자연스럽게 대화가 가능하다"고 설명했습니다.

다만, "안녕"이라는 한국어를 적고 무엇을 뜻하는 것인지를 알려 달라고 했으나 답변하지 못했습니다.

한국어라고 알려주니 "나는 한국어를 모른다"고 했습니다.

아직 한국어는 인식하지 못했습니다.

오픈AI의 'GPT-4o'(GPT-포오)는 한국어를 포함해 50개 언어로 인식합니다.

오픈AI는 'GPT-4o'를 수주 내에 출시할 계획이라고 밝혔습니다.

이에 맞서 구글은 프로젝트 아스트라의 시각과 청각 등 일부 기능을 올 하반기 출시할 예정입니다.

(사진=연합뉴스)

유영규 기자 sbsnewmedia@sbs.co.kr

▶ 네이버에서 SBS뉴스를 구독해주세요!
▶ 가장 확실한 SBS 제보 [클릭!]
* 제보하기: sbs8news@sbs.co.kr / 02-2113-6000 / 카카오톡 @SBS제보

Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.