컨텐츠 바로가기

05.29 (수)

고장난 제품 비추니 “이렇게 해”…“안경 못 봤어?” “책상 위”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다


‘구글 개발자 회의’ 현장 가보니



중앙일보

순다르 피차이 구글 최고경영자가 지난 13일(현지시간) 미국 캘리포니아주 마운틴뷰에서 열린 ‘구글 연례개발자회의(I/O)’에서 연설하고 있다. [연합뉴스]

<이미지를 클릭하시면 크게 보실 수 있습니다>


“그것(AI)은 모두를 위한 것이었고, 우린 이제 시작입니다.”

14일(현지시간) 구글의 연례개발자회의인 I/O 2024의 개막을 알리는 영상의 마지막 멘트가 나오고, 무대 위로 순다르 피차이 구글 최고경영자(CEO)가 모습을 드러냈다. 평상시처럼 회색 셔츠에 청바지를 입은 피차이 CEO는 “구글의 I/O는 의상이 바뀌지 않는 ‘에라스 투어’(테일러 스위프트의 전 세계 순회공연)”라며 농담을 던졌다.

이날 행사가 열린 미국 캘리포니아 마운틴뷰의 대형 원형극장 쇼어라인 앰피시어터에는 전 세계에서 온 개발자·기자·크리에이터 등 4300명가량의 인파가 몰렸다. 향후 구글의 방향성을 알릴 본격적인 발표를 앞두고 모두의 시선이 집중되자, 피차이 CEO가 말을 이었다. “구글은 본격적인 ‘제미나이’의 시대로 접어들었다.”

현재 구글의 상황은 녹록지 않다. ‘1인자’ 자리를 지켜오던 검색엔진 시장에서 점유율이 조금씩 줄어들고 있고, 생성 인공지능(AI) 분야에선 늘 새로운 기술로 치고 나가는 오픈AI에 뒤처진다는 평가를 받고 있다. 오픈AI는 구글 I/O 바로 전날인 13일 음성 대화 기능 등이 담긴 새로운 AI 모델 ‘GPT-4o’를 발표하면서 스포트라이트를 선점했다.

이런 가운데 구글은 가장 유리한 선택지를 골랐다. 검색엔진·구글 포토·워크스페이스·안드로이드 등 이미 전 세계 약 20억 명이 일상적으로 쓰고 있는 구글 제품 전반에 자사 AI 모델인 ‘제미나이’를 녹이겠다는 것. 탄탄히 쌓아온 구글의 서비스를 기반으로 소비자의 일상 곳곳에 제미나이를 노출해 새로운 기회를 만들겠다는 전략이다.

“구글은 본격적인 제미나이 시대”

중앙일보

구글의 AI 제미나이를 시연하는 모습. [사진 구글 화면 캡처]

<이미지를 클릭하시면 크게 보실 수 있습니다>


구글은 먼저 제미나이 울트라 1.0을 탑재한 챗봇인 제미나이 어드밴스드 구독자를 대상으로 가장 최근 AI 모델(제미나이 1.5 프로)을 제공하겠다고 밝혔다. 현재 어드밴스드 구독자 수는 약 100만 명이다. 제미나이 1.5 프로보다 가벼우면서도 멀티모달(텍스트, 음성, 이미지, 영상 등 여러 데이터를 입출력할 수 있는 모델) 추론 기능과 대용량 정보 처리 기능을 갖춘 제미나이 1.5 플래시도 공개했다. 이날 발표자로 무대에 오른 데미스 허사비스 구글 딥마인드 CEO는 “가볍지만 방대한 양의 정보를 추론하는 능력이 뛰어나 긴 문서나 표에서 데이터를 추출하고, 요약하는 데 탁월한 성능을 발휘할 것”이라고 말했다.

질문 하나. 주차장에서 요금을 내려고 하는데, 차량 번호가 기억나지 않는다면? 언제 차 사진을 찍어놨을지 모를 사진첩을 뒤적이거나 다시 차로 돌아가는 수밖에 없다. 그런데 구글 포토 이용자라면? 구글 포토에 탑재된 제미나이에 ‘내 차 번호가 뭐였지’라고 물어보면 된다. 그러면 제미나이가 내 사진 속에서 자주 등장하는 차량을 인식한 후, 차 번호를 알려준다. 이 기능은 올여름 출시된다. 지메일·문서·드라이브 등 구글 워크스페이스에도 제미나이 1.5 프로가 도입돼 여러 기능이 추가된다. 예를 들면 지메일에서는 사이드 패널에 ‘중앙일보로부터 온 메일 요약해줘’ ‘계약서 파일 받은 거 찾아줘’ 등의 질문을 하면 메일함을 일일이 직접 열어볼 필요 없이 제미나이가 바로 찾아주는 식이다. 글에 첨부된 파일까지 분석해 추론하는 능력도 갖췄다. 구글에 따르면 제미나이 1.5 프로는 1500페이지 분량의 문서를 한번에 이해하거나, 100개의 e메일이나 한 시간 분량의 동영상을 한번에 요약할 수 있다.

이날 I/O 현장에서는 2분가량의 영상 하나가 재생됐다. 한 여성이 스마트폰으로 사무실을 여기저기 비추며 제미나이와 음성 대화를 나눈다. 책상에 놓여 있는 물건이 무엇인지 묻거나 컴퓨터 화면에 나와 있는 코드가 어떤 코드인지, 창밖에 보이는 지역이 어디인지도 물어본다. 제미나이는 “고주파 스피커입니다” “암호화를 정의하는 코드입니다” “런던의 킹스크로스 지역인 것으로 보입니다”라고 바로 답한다. 중간에 여성이 “혹시 내 안경 못 봤어?” 물어보자 “책상 위 빨간 사과 옆에 있다”고 알려주기도 한다. 카메라에 담긴 장면을 기억해 이를 기반으로 위치를 스스로 파악했다.

빅테크 간 경쟁 더 치열해질 전망

이 영상은 구글이 인간처럼 보고, 듣고, 배울 수 있는 미래형 AI 에이전트를 개발하기 위해 시작한 ‘프로젝트 아스트라’의 데모 영상이었다. 시연 영상 등을 통해 공개된 기술은 연내 구글 제품에 일부 탑재할 예정이다.

‘큰 한 방’보다는 구글 제품에 자연스럽게 제미나이를 녹여 구글만의 AI 생태계를 구축하고, ‘AI 에이전트’라는 미래 청사진까지 그린 구글의 전략이 얼마나 효과가 있을지는 아직 미지수다. 이미 마이크로소프트(MS)는 오픈AI의 챗GPT를 기반으로 한 코파일럿을 전 제품에 탑재한 바 있고, 아스트라의 데모 영상도 I/O 전날 오픈AI가 공개한 ‘GPT-4o’와 비슷한 성격의 음성 비서 모델이다. AI 생태계 구축에서부터 ‘인간 같은 AI 에이전트’ 시장까지, 가는 길마다 겹치는 빅테크 간 경쟁은 더 치열해질 전망이다.

마운틴뷰=홍상지 기자 hongsam@joongang.co.kr

중앙일보 / '페이스북' 친구추가

넌 뉴스를 찾아봐? 난 뉴스가 찾아와!

ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.