코파일럿을 활용한 업무 모습. 사진=마이크로소프트 |
[최호섭 편집위원] [디지털포스트(PC사랑)=최호섭 편집위원 ] 매년 5~6월은 마이크로소프트, 구글, 애플이 다음 한 해의 기술 흐름을 읽고 각자의 제품과 서비스의 방향성을 제시하는 개발자 컨퍼런스가 열린다. 전 세계 개발자들이 한 자리에 모여 각 기업 플랫폼의 미래를 살피고 공감하는, 사실상 가장 큰 이벤트다.
이 세 빅테크 기업은 모두 운영체제와 앱, 웹 서비스, 콘텐트 등 플랫폼을 운영하고 있다. 특히 소프트웨어 생태계가 플랫폼을 유지하는 기반이 되는 기업들이기 때문에 개발자들과 기술적 공감대를 갖는 것이 중요하다. 늘 새로운 기술의 보안에 예민하게 신경을 곤두세우는 기업들이라고 해도 이 때 만큼은 최대한 많은 것들을 꺼내 놓는다. 앱 개발자들이 운영체제와 서비스의 새로운 기능들을 활성화해서 더 나은 앱을 만들어야 이 플랫폼의 가치가 높아지기 때문이다.
구글I/O, 인공지능을 마주하는 방법
구글 I/O 이미지. 사진=구글 |
오랫동안 구글 I/O의 주인공은 안드로이드였다. 구글의 서비스들은 사람과 더 가까이에서 일상을 바꾸는 데에 있다. 하지만 인공지능은 구글에게 가장 중요한 플랫폼으로 자리를 잡아가고 있다. 구글은 지난 몇 년 동안 온전히 새로운 것을 내놓기보다 꾸준히 머신러닝을 기반으로 기존의 서비스 경험을 한 단계 끌어올리는 방법들을 제시해 왔다. 머신러닝이 번역을 더 고도화하고, 지도의 길 찾기를 정밀하게 만들고, 음성 어시스턴트가 더 정확하게 반응하는 식이다.
이 모든 것은 모바일 서비스의 경험을 높이는 쪽에 집중되었고, 안드로이드는 이런 기술들을 받아들이는 중요한 기틀이었다. 하지만 올해는 조금 달랐다. 사실상 스마트폰과 안드로이드에 대한 이야기는 없다시피 했고, 그 자리는 구글의 인공지능 서비스인 '제미나이(Gemini)'에 집중됐다. 이제까지 서비스들을 모바일을 통해 효과적으로 이용자들의 일상에 파고 들기 위해 안드로이드를 개발해 왔다면, 이제 인공지능을 중심에 두고 구글의 서비스들이 고도화되는 단계인 셈이다.
구글 제미나이. 사진=구글 |
제미나이의 발전
애초 제미나이는 구글의 대규모 언어 모델로 개발됐다. 챗GPT와 어깨를 맞댈 만한 언어 기반 인공지능 서비스를 목표로 지속적인 발전이 이뤄지고 있다. 하지만 언어 모델의 역할은 단순히 글을 만들어내는 생성형 AI로 한정되지 않게 됐다. 언어 모델은 컴퓨터 등장 이후 가장 큰 숙제였던 '사람과 컴퓨터 사이의 소통'이라는 장벽을 허물었고, 이를 통해 본격적으로 사람들이 원하는 일들을 알아채는 '눈치'로 발전하게 됐다.
구글은 제미나이의 역할을 단순 생성형 AI가 아니라 소통의 중심으로 만들고 있다는 것을 내비쳤다. AI는 이제 모든 서비스에 놓이게 되고, 마법 같은 일을 하는 게 아니라 지도, 번역을 비롯해 사람과 사람 사이의 커뮤니케이션, 그리고 컴퓨터와 세상 사이의 소통으로 이어지는 전환점을 지나고 있다.
구글은 제미나이를 중심에 둔 세 가지 프로젝트를 통해 제미나이를 비롯한 AI 기술들이 서비스에 영향을 끼치는 영향을 설명했다. 첫번째는 '프로젝트 스타라인'이다. 스타라인은 커뮤니케이션의 경험을 고도화하는 AI 기술들이 중심이 된다. 우리에게 익숙한 서비스로는 영상 통화 서비스인 '구글 미트'가 한 단계 발전하는 것으로 볼 수 있다.
가장 눈길을 끈 것은 소통에 현실감을 더한 '구글 빔(Google Beam)'이다. 이는 대형 디스플레이와 6개 카메라를 통해 사람을 실시간으로 캡처하고 인공지능 기술을 통해 3D 모델링해서 실제처럼 입체감을 주는 것이다. 기존 영상 중심의 화상 통화와 달리 화면 너머에 3D 렌더링 이미지가 비춰지는데, 그래픽보다는 실제 영상처럼 서로의 모습을 담아내는 것이 핵심이다.
이는 지난 2021년 코로나19 팬데믹이 한창일 때 처음 시작한 프로젝트로, 비대면 소통이 주목받는 동시에 화면 너머의 거리감과 어색함으로 소통의 피로가 쌓여가는 상황을 해소하는 것을 목표로 했다. 많은 테크 기업들이 영상으로 채워지지 않는 감정의 교류가 필요하다는 것을 알게 됐고, 구글은 이를 더 현실감 넘치는 화면으로 구현해서 마치 디스플레이라는 유리창 너머에 실제 사람을 마주하는 것과 같은 경험을 만들어냈다. 구글 빔은 HP를 통해서 처음 출시된다.
이와 함께 구글 미트는 실시간 음성 번역으로 고도화가 이뤄진다. 다른 언어를 쓰는 사람들 사이에서 각자의 언어로 이야기를 하면 이를 실시간으로 번역해서 목소리를 통해 말을 전달한다. 영화 더빙을 떠올리면 비슷하다. 이는 구글이 오랫동안 노력해 왔던 번역과 TTS(Text to Speech), 그리고 인공지능으로 목소리를 흉내내는 음성 합성 기술이 더해진 것으로, 이 모든 인공지능 기술이 이질감 없이 실시간으로 처리될 수 있는 단계에 왔다는 것을 보여주는 예다. 결과적으로는 오랫동안 구글이 고민해 온 언어를 뛰어넘는 소통이라는 숙제를 풀어낸 것이다.
아스트라로 물건 스캔한 뒤 강조 표시 기능을 이용해 비교하는 모습. 사진=구글 |
두 번째 프로젝트는 '아스트라'다. 여기에 소개된 서비스는 제미나이인데, 기존의 텍스트와 음성 대화 외에 카메라를 더한 것이 핵심이다. 제미나이는 카메라를 통해서 입력되는 내용을 실시간으로 파악하고 이를 바탕으로 대화를 이어간다. 구글은 산책을 하면서 나무를 보고 '저기 가로등이 있다'고 말하는 식으로 틀린 정보를 입력하는 데모를 했는데, 제미나이는 '아니에요, 이건 나무에요'라고 정확히 바로잡는 것을 보여주었다. 그림을 보고 누구의 작품인지, 꽃을 비추고 어떤 품종인지 등을 살필 수 있다.
이 역시 구글이 오랫동안 집중해 왔던 '구글 렌즈'에 영상 기반 해석과 대규모 언어모델을 바탕으로 한 대화를 더한 것으로 볼 수 있다. 단순한 재밋거리가 될 수도 있지만 이는 구글이 목표로 하는 '세상과 온라인의 연결'을 새로운 형태로 풀어낸 것이다. 당연히 이 프로젝트 아스트라의 내용은 웨어러블 기기, 장애인용 접근성 등으로 이어질 가능성을 갖고 있다.
세 번째 프로젝트 '마리너'는 개개인의 정보를 바탕으로 맥락을 이해하는 맞춤 인공지능 서비스다. 사람들은 구글의 여러가지 서비스를 매일 이용한다. 안드로이드 스마트폰부터 G메일, 구글 드라이브 등에는 개인화된 정보들이 담기게 된다. 프로젝트 마리너는 이 정보를 통합적으로 읽어서 필요한 일을 대신 처리해주는 에이전트다.
구글은 적절한 수준의 임대료를 제시하고 위치와 조건에 맞는 집을 찾는 시연을 했는데, 마리너는 목록을 만들고, 가장 적합한 집들에 대해서 직접 찾아가볼 수 있도록 예약까지 잡아주었다. 이메일에 대한 답장을 쓸 때도, 단순히 해당 내용에 대한 답이 아니라 기존의 흐름과 맥락, 그리고 나의 일정 등을 전체적으로 파악해서 더 개인화되고 전문화된 답을 꺼내 줄 수 있게 된다.
익숙한 기술의 진화, 끝나지 않는 도전
세 가지 프로젝트에 적용된 기술들은 사실 완전히 새로운 것들은 아니다. 접근과 조합의 방법이 달라졌을 뿐이다. 구글은 오랫동안 스스로의 필요에 의해서 인공지능 기술을 다루어 왔고, 현재 인공지능의 근간이 되는 기술들의 상당 부분을 직접 만들어내기도 했다.
지금 구글의 접근법은 사람들에게 익숙한 방법을 찾아내고 어색하지 않게 맞춰 나가는 과정을 반복하고 있다. 구글이 인공지능에 관심을 기울이게 된 이유도 데이터를 잘 해석하고, 서비스에서 기존 알고리즘으로 풀어내기 어려운 예민한 문제들을 풀어내는 직접적인 방법이기 때문이다. 그 중심에는 주변을 바라보고 인간의 언어를 이해하는 기술들이 깔려 있다. 인공지능은 결국 사람이 세상과 사람을 받아들이는 방법을 따라하는 데에 있기 때문이다.
그래서 인공지능에 대한 구글의 접근법은 다소 소극적이기도 하고, 조심스러워 보이기도 한다. 대화를 통역하고, 사물을 인지하고, 이메일에 답장하는 일은 이미 우리가 구글 혹은 그 외의 서비스를 통해 익숙하게 접해 왔던 일이다. 하지만 구글은 이 기본 요소들을 기술적으로 오랫동안 발전시켜왔고, 또 그 요소 기술들을 서로 결합해 가면서 새로운 경험을 만들어내는 움직임을 이어오고 있다. 겉으로는 익숙해 보이지만 뒤에서 기술적으로는 작지 않은 변화를 만들어내는 것이다. 이유는 기술이 익숙해지는 속도 때문이다.
2018년, 구글은 인공지능 어시스턴트가 직접 전화를 걸어 사람과 대화를 나누며 음식점, 미용실을 예약하는 '듀플렉스' 서비스를 내놓았다가 강한 거부감을 산 바 있다. 이른바 '불편한 골짜기'인데, 세상은 갑자기 들이닥친 인공지능 기술에 놀라움과 함께 부정적인 반응을 보이곤 한다. 인공지능이 사람인 척 전화를 걸어서 대화를 나누는 모습은 신기함보다는 '감히'라는 인상을 불러일으켰다.
이후 구글은 인공지능이 어떻게 접근해야 할 지에 대한 고민을 적잖게 해 왔고, 기본적인 윤리 정책에 대한 고민도 많았다. 기술에 대한 거부감은 인공지능에 한정되지 않는다. 2013년 세상을 들썩이게 했던 웨어러블 기기인 '구글 글래스'도 마찬가지였다. 스마트 기기를 통해서 세상을 검색하고, 이해하는 방법을 바꾸어 놓을 것이라는 기대도 있었지만 카메라와 인공지능을 통한 '감시'라는 인식을 지우지 못했고, 결국 구글 클래스는 경험의 도약보다는 잠시 접어두어야 하는 기술로 남게 됐다.
안드로이드 XR 글래스의 네비게이션 기능. 사진=구글 |
그리고 12년이 지나 구글은 이 기술을 다시 꺼내어 상품으로 만들어낸다. 이번에 공개된 '안드로이드 XR 글래스'다. 12년의 시간동안 프로세서를 비롯한 반도체와 배터리, 카메라 등 하드웨어 기술은 안경 형태의 웨어러블 기기의 약점을 극복할 수 있을 만큼 발전했다. 무엇보다 그 위에서 돌아갈 다양한 인공지능 서비스가 무르익었다. 앞서 이야기한 프로젝트 아스트라의 제미나이 라이브를 기반으로 눈 앞의 사물들을 인지하고, 그에 대한 정보를 실시간으로 소통할 수 있게 됐다.
이제는 다소 익숙해진 인공지능 기술이기 때문에 접근에 부담을 덜어낼 수 있었고, 무엇보다 이 안경의 디자인을 젠틀몬스터와 함께 하면서 별난 IT 기기가 아니라 일상의 패션에 기술이 더해진다는 관점으로 접근하는 변화를 보여주었다. 새로운 기술을 어떻게 꺼내놓아야 할 지에 대한 고민이 엿보이는 부분이다.
구글은 애플 비전 프로를 떠올리는 안드로이드 XR 헤드셋도 함께 발표했다. 삼성전자와 협업해 '무한'이라는 이름의 제품으로 출시될 계획이다. 무한은 인공지능과 몰입형 콘텐츠를 중심에 두는 것을 목표로 하는 제품이다. 이 역시 구글의 첫 도전은 아니다. 구글은 2016년 '데이드림(Daydream)'이라는 이름의 가상현실 헤드셋을 발표한 바 있다. 게임부터 산업, 교육에 이르기까지 큰 그림을 그렸지만 당시 대부분의 가상현실 서비스들과 마찬가지로 충분한 성능을 내기 어려웠고, 애플리케이션의 다양성도 높지 않았지마 상대적으로 헤드셋의 가격 부담은 높았기 때문에 시장에서 큰 반응을 얻어내지 못했다.
결국 구글은 데이드림을 오래 끌고 가지 못했다. 2019년 이 플랫폼을 완전히 정리한다고 발표했고, 이후 증강현실을 중심에 두는 것으로 방향성을 바꾸었다. 주로 안드로이드 스마트폰의 카메라를 이용한 증강현실 앱을 쉽게 만들 수 있도록 이끌어 왔지만 메타의 '퀘스트'와 애플의 비전 프로 이후 다시 전용 헤드셋의 기술적인 접근이 가능해졌고 구글 역시 헤드셋을 준비할 필요가 생겼다. 삼성전자 등 하드웨어 제조사들로서도 증강현실 헤드셋에 대한 수요가 있었기 때문에 구글로서는 이를 미룰 수 없었을 것이다.
구글이 기술을 마주하는 방법
구글은 개발자 컨퍼런스를 통해 많은 제품과 기술을 소개했다. 겉으로 드러나는 제품과 서비스도 중요하지만 구글이 제시한 기술의 방향성은 눈여겨볼 필요가 있다. 구글은 여전히 크고 부담스러운 기술을 한 번에 내놓지 않는다. 이미 오래 전에 스마트폰, 지도, 웹 앱, 번역 등 구글이 하고자 하는 일들에 대해서는 큰 그림을 그려 두었다. 이후 작은 세부 기술들을 고도화하는 것으로 밑그림을 완성해 나가는 전략이다.
구글 AI스튜디오 구동 모습. 사진=구글 |
인공지능은 이를 위한 가장 중요한 도구다. 지속적으로 인공지능 모델이 더 많은 일을 더 정확하게 할 수 있도록 하는 것 뿐 아니라 적절한 모델의 크기와 빠른 반응 속도, 그리고 이를 효과적으로 운영할 클라우드 인프라까지 모든 것을 구글 I/O를 통해 보여주었다. 특히 GPU의 부족과 운영 비용이라는 인공지능 업계의 심각한 고민을 스스로 해소할 수 있는 TPU(Tensor Processor Unit)를 크게 발전시켰고, 이를 통해 더 많은 곳에 제미나이를 비롯한 인공지능 기술을 부담 없이 쓸 수 있도록 하는 기술적 대안을 제시했다. 커다란 목표를 위해서 작은 모델부터 인프라까지 하나하나가 모여 구글의 인공지능을 이루는 것이다.
동시에 인공지능을 어떻게 발전시켜야 할 지에 대한 담론을 숨겨 두었다. '구글이 AI 시대에 뒤처지고 있다'는 반응들도 있다. 하지만 구글은 인공지능이 놀라움으로 우리 곁에 오는 것보다 자연스럽고 편하게 녹아드는 방법을 고민해 왔고, 이제 그 결과물들을 하나씩 꺼내 놓고 있다.
물론 구글의 모든 시도와 도전이 성공하는 것은 아니다. 구글은 여전히 스타트업의 문화가 남아 있어 그 누구보다도 빠르게 새로운 것을 시작하기도 하지만 가능성이 없어 보이는 일은 순식간에 정리하곤 한다. 하지만 구글이 서비스를 멈추는 것은 꼭 포기의 의미는 아니다. 구글 글래스나 데이드림처럼 실패로 꼽히는 프로젝트들도 사실은 겉으로 드러내 놓지 않을 뿐, 가능성이 있다고 판단한 일에 대해서는 지속적으로 준비하며 기술적인, 또 사회적인 접근이 가능해지는 순간에 구글은 다시 제품을 꺼내 놓는다.
구글의 안드로이드 XR 플랫폼을 통해 애플과 메타가 제시한 다음 세대의 XR을 삼성전자를 비롯해 새로운 기업들이 확장해 나갈 수 있는 기회가 다시 생긴 것도 눈여겨볼 부분이다. 가상현실, 증강현실의 어려움은 헤드셋에 있고, 이를 풀어내는 방법을 많은 기업들이 함께 고민할 필요가 있다. 구글이 운영체제와 애플리케이션 등 플랫폼을 중심에 두는 것은 당장의 성공보다는 그 기회를 플랫폼에 두고 문제를 함께 풀어가기 위한 목적이 있다. 구글 생태계의 참여로 다시금 가상현실 시장에 대한 성장 기회가 이어질 지도 지켜볼 일이다.
애플 WWDC, 개인정보 보호에 기반한 개인 맥락 중심의 인공지능 전략
세계개발자회의(WWDC) 2025년 로고. 사진=애플 |
애플은 거의 매 계절마다 캘리포니아 쿠퍼티노의 본사에서 큰 규모의 이벤트를 열고 새로운 제품과 기회를 꺼내 놓곤 한다. 그 중에서도 6월 WWDC는 개발자들이 함께 하는 거대한 축제로, 특정 제품 뿐 아니라 운영체제와 소프트웨어 개발 환경까지 앱 생태계가 다음 한 해 어떻게 움직이게 될 지에 대한 답을 나누는 자리다.
애플은 이 자리에서 다음 1년 동안 쓰일 운영체제의 밑그림을 발표하고 그 안에 들어갈 새로운 기술들, 개발 환경을 제시하곤 한다. 올해도 아이폰부터 아이패드, 맥, 애플워치, 애플TV 등 애플의 모든 기기들은 큰 변화를 예고했다. 또한 애플의 '아픈 손가락'으로 꼽히는 인공지능에 대한 변화, 그리고 새로운 접근 방법에 대한 고민도 개발자들과 함께 나누었다.
애플은 여전히 단순한 화려함 보다는 많은 부분을 개발자 생태계에 열어두고 있고, 그 기술적인 장벽을 낮추어서 아이디어들이 더 많은 앱으로 만들어지기를 원한다. 운영체제와 개발도구의 방향성도 더 쉬운 앱 개발에 집중되어 있다. 올해는 특히 디자인과 인공지능 앱 개발 API 등을 통해서 새로운 앱의 전환을 제시하는 것이 중심에 놓여 있다.
운영체제의 이름 체계화, 기기 아우르는 경험 통일
애플은 올해 차세대 운영체제들에 큰 변화를 제시했다. 우선 이름의 체계를 바꾸었다. 앞으로 애플의 모든 운영체제는 '26'처럼 연도를 붙여 iOS26, iPadOS26, macOS26처럼 이름을 정하기로 했다. 애플의 운영체제 작명법은 오랜 역사만큼이나 제각각이다. 특히 맥OS의 경우 2001년 '10'이라는 상징성을 중심에 두고 운영체제의 이름 자체를 '맥OS X'으로 바꾸었고, 이후에도 매년 큼직한 업데이트를 하면서도 숫자를 올리는 대신 10.1, 10.2 식으로 버전을 높였다.
애플의 IOS26이 적용된 제품들. 사진=애플 |
이와 함께 '치타', '마운틴 라이언' 등 고양이과의 동물 이름을 붙이다가 '시에라', '소노마', '세콰이어' 등 캘리포니아를 상징하는 지역의 이름을 별명으로 붙여오고 있다. 2020년, 애플은 M1 칩을 내놓으면서 맥OS의 10을 중심으로 한 작명 방법 대신 11, 12, 13처럼 순차적으로 버전을 끌어올리고 있다. 직관성이 떨어지기 때문이다.
하지만 이제 운영체제들이 오랫동안 이어져 오면서 이 숫자들이 커지기 시작했다. 당장 올해만 해도 맥OS는 15, iOS는 18, 워치OS는 11이다. 숫자를 하나씩 올리는 것은 당연한 판올림 방법이지만 이 숫자들은 너무 제각각이기도 하고, 두 자릿수로 넘어오면서 헷갈리기 쉬워졌다. 또한 버전이 높아질수록 1씩 올라가는 것에 대한 전체적 무게감이 줄어들기 때문에 기술 발전에 대한 체감도 떨어지는 인상을 주었다.
대신 연도를 기반으로 통일하는 전략은 혼란을 줄인다. 이는 이용자 뿐 아니라 개발자에게도 중요한 문제다. 애플은 매년 새 OS를 내놓으면서 개발 도구도 업데이트를 이어간다. 그 안에는 매년 새로운 API들이 제공된다. 개발자들은 언제 어떤 운영체제를 바탕으로 앱을 개발했는지 파악하는 것이 매우 중요한 문제다. 특히 아이폰과 아이패드, 맥의 애플리케이션들이 하나의 환경에서 개발하고 화면에 맞는 디자인으로 약간의 수정을 거쳐 배포하게 되면서 운영체제 버전의 혼란은 적지 않은 문제였다.
이를 하나로 통합하면서 이제 애플의 운영체제는 통일성을 갖추는 한 편, 그 해를 대표하는 기술들을 반영한다는 의미도 품게 됐다. 2026년의 트렌드를 잘 따르고, 2026년에 앱 개발자들에게 필요한 세부 기능들을 제공한다는 것을 쉽게 전달할 수 있게 됐다. 간단해 보이는 이름 체계지만 앱 개발 생태계에는 큰 변화인 셈이다.
'리퀴드 글래스', 13년 만의 디자인 변화
애플의 리퀴드 글래스 디자인 적용 모습. 사진=애플 |
애플의 새 운영체제는 이름 뿐 아니라 디자인도 큰 변화를 띄게 됐다. 핵심은 새로운 디자인 언어인 '리퀴드 글래스(Liquid Glass)'에 있다. 리퀴드 글래스는 이름처럼 물방울 느낌이 나는 투명한 유리 레이어를 콘텐츠 위에 올려 입체감을 더하는 디자인이다.
애플의 최근 운영체제 디자인은 2013년 iOS 7에서 도입된 플랫 디자인을 바탕으로 한다. 애플은 아이폰을 내놓으면서 앱 디자인의 기본 정책을 '실제'에 두었다. 스마트폰 시장 초기에는 모두가 아이폰을 새롭게 여기는 만큼 어색하고 낯선 면도 있었다. 실제 세상에서 각각의 도구를 이용하던 것을 스마트폰 화면으로 옮겨와야 했기 때문에 애플은 운영체제 뿐 아니라 앱의 디자인을 '실제 어디엔가 있는 것'을 가져오도록 했다.
예를 들면 메모 앱은 실제 사람들이 많이 쓰는 노란색 캠브릿지 노트에 영감을 받아 아이콘 모양부터 앱의 구동 화면까지 이 메모장을 그대로 옮겼다. 달력 역시 익숙한 모양의 아이콘과, 실제 벽에 걸어두는 달력의 디자인을 그대로 앱에 녹여냈다. 이런 디자인 접근은 '스큐어모피즘(Skeuomorphism)'으로 부른다. 그리스어 'skeuos (도구, 용기)'와 'morphe (형태)'의 합성어로, '도구의 형태를 그대로 담아낸다'는 의미로 읽힌다.
이를 이끌어 온 것은 당시 아이폰 소프트웨어를 총괄한 스콧 포스톨 수석 부사장이었다. 그는 아이폰의 성공을 이끌었지만 2012년 애플 지도의 완성이 미진하다는 평과 함께 회사를 떠났다. 이후 iOS의 디자인은 애플의 디자인 총괄이었던 조니 아이브 수석 부사장이 맡게 된다.
그리고 2013년 등장한 iOS7을 통해 아이폰은 큰 디자인 변화를 겪게 된다. 이른바 '플랫 디자인'이다. 이 플랫 디자인은 이름처럼 평면을 중심에 둔다. 모든 디자인의 기반은 하얀 종이에 있고, 그 위에 얇은 펜으로 단순한 선을 그어 디자인을 완성한다. 예를 들면 흰 바탕에 날짜를 쓰면 캘린더의 아이콘이 만들어지고, 앱은 달력 모양 대신 얇은 선으로 격자를 그리고 날짜를 채우는 것으로 완성된다. 이렇게 디자인을 해도 우리는 어떤 것을 표현했는지 어렵지 않게 알 수 있다.
이는 아주 단순하면서도 세련된 이미지를 주었고, 이후 애플의 운영체제 디자인의 새로운 중심이 된다. 플랫 디자인은 스큐어모피즘으로 스마트폰에 익숙해진 이후 등장한 디자인 가이드였고, 이제는 세상의 모든 것이 이미 모바일로 디지털 트랜스포메이션이 이뤄졌기 때문에 작은 스마트폰 화면을 효과적으로 쓸 수 있는 디자인이 필요했다.
이후 아이폰의 iOS 뿐 아니라 모든 애플 기기의 운영체제는 이 플랫 디자인을 기반으로 점진적으로 발전해왔다. 기기 간의 통일성을 높이기 위해 아이콘, 제어 센터, 상태 표시줄 등 다양한 UI 요소들이 재구성되기도 했다. 특히 아이패드와 맥의 경험을 통합하기 위해 애플은 두 운영체제의 요소들을 서로 옮기기도 했는데, 기기별 특성과 UX 차이로 인해 디자인의 한계가 있었다.
이번 리퀴드 글래스 중심의 디자인은 그동안의 조각난 통합을 마무리 짓고, 새로운 UX의 백지에서 다시 그려낸 일관된 사용자 경험을 제시한다. 기능적으로는 모든 운영체제의 통합이 완성 단계에 접어들었다. 남은 것은 이제 각각의 출발점에서 시작한 디자인을 하나로 합치는 일관성을 만드는 것이다.
리퀴드 글래스는 기본적으로 투명한 물방울 형태의 유리를 말한다. 가장 밑바탕에는 콘텐츠가 있고, 버튼이나 기능 UI들은 모두 그 위에 리퀴드 글래스로 디자인한다. 이 버튼들은 투명하기 때문에 콘텐츠를 완전히 가리지 않으면서도 입체감을 준다. 필요에 따라서 버튼이 움직일 때도 물방울이 흐르는 듯한 애니메이션을 더했고 살아 있는 것처럼 크기를 바꿔가며 화면에 녹아든다.
애플의 기본적인 디자인 원칙은 'UI로 콘텐츠를 가리지 않는다'에 있다. 플랫 디자인은 극도의 단순함을 추구했기 때문에 심지어 버튼의 윤곽을 만들지 않고, '<' 처럼 단순히 기호를 그려 넣는 것으로 UI를 만들어내곤 했다. 하지만 이 플랫 디자인은 밑바탕이 되는 영역이 있어야 했기 때문에 결국 메뉴 막대 등이 필요한 경우가 많았다.
리퀴드 글래스는 독자적으로 버튼 형태를 갖기 때문에 기존 플랫 디자인 위에 버튼 영역을 더 최소화하는 역할을 맡는다. 이 디자인은 시각적인 아름다움에 그치지 않는다. 모든 애플 기기 사이에 유기적으로 통합되도록 만들어졌고, 아이폰과 아이패드, 맥 등 각기 다른 기기들이 하나의 운영체제를 사용하는 듯한 일관된 경험을 제공하도록 설계됐다. 이는 기능의 통일을 넘어 사용자 경험의 통합을 만들어내는 것이다.
애플 인텔리전스. 사진=애플 |
애플 인텔리전스의 재 도전
애플에 대한 가장 큰 관심은 인공지능 기술인 애플 인텔리전스에 있다. 지난해 애플은 야심차게 애플 인텔리전스에 대한 비전을 내놓았다. 하지만 약속했던 모든 기능이 매끄럽게 완성되지 못했다. 특히 이용자의 개인정보를 바탕으로 콘텐츠들의 맥락을 읽어서 답을 꺼내 주는 새로운 '시리'는 다음으로 미뤄졌다.
그리고 이번 WWDC의 키노트에서 크레이그 페더리기 부사장은 키노트 초반에 시리의 개인 맥락 파악하는 것에 대한 노력이 이어지고 있다고 운을 뗐다. 당장 단기간에 답을 내놓을 일이 아니라 높은 수준을 위해서 아직 시간이 필요하다고 에둘러서 이야기한 셈이다. 당장 iOS26이 등장하면서 자신있게 꺼내놓을 단계는 아닌 것으로 보인다.
하지만 애플 인텔리전스와 애플의 인공지능 정책은 빠르게 발전을 이어가고 있다. 애플은 iOS26에 '홀드 어시스트(Hold Assist)'라는 기능을 소개했다. 이는 ARS 상담처럼 오랫동안 통화를 대기하고 있어야 할 때 이를 인지하고 기다리고 있다가 통화가 가능할 때 이용자에게 알려주는 기능이다. 애플 인텔리전스는 ARS의 배경 음악과 안내 음성을 통해 ARS 대기라는 것을 인지하고 대기가 끝날 때까지 기다릴 수 있도록 한 것이다.
여기에서 애플의 인공지능 정책을 한 눈에 읽을 수 있다. 이 ARS 대기를 단순히 따져보면 아이폰이 이용자의 통화 내용을 듣고, 그 안에서 적절한 행동을 하는 것이다. 예민하게 받아들이면 이는 인공지능을 이용한다고 해도 도청의 범위에 들어갈 수 있다. 하지만 걱정할 만한 기술은 아니다. 이는 철저히 기기 내부에서 '온 디바이스 AI'를 통해서 이뤄지기 때문이다.
만약 ARS 대기 기능을 위해 통화 내용이 녹음되고, 데이터센터로 전송되어 음성 해석 모델로 해석한 뒤에 ARS 여부를 판단한다고 하면 이는 심각한 사생활 침해 가능성이 있다. 과거 음성 어시스턴트들의 모델이 클라우드를 바탕으로 대화를 이어갔는데, 일반적인 어시스턴트들의 역할은 단순하기 때문에 사생활 침해에 덜 민감하지만 전화통화는 가장 예민한 분야다. 이를 전송하는 것은 사생활 보호에서 더 멀어지는 길이다.
애플은 이를 기기 내부에서 처리한다. 내부 프로세서의 NPU인 뉴럴 엔진과 애플 인텔리전스의 언어 모델이 결합해 통화에서 흘러나오는 내용을 인지하고 적절한 행동을 하는 것이다. 애플이 지난해 iOS 18에 통화 녹음과 받아쓰기를 더한 것도 모든 것이 기기 내부에서 처리될 수 있기 때문이었고, 이번 홀드 어시스트도 같은 맥락으로 사생활을 중심에 둔 채 통화 내용의 해석을 고도화한 것이다.
실시간 번역도 마찬가지다. 애플은 일반 음성 통화를 할 때도 더빙처럼 언어를 번역하는 기능을 넣었다. 상대방이 아이폰을 쓰지 않아도 이용자의 아이폰이 번역한 음성으로 상대방에게 말을 건네고, 반대로도 작동한다. 어디에도 전송하지 않고, 이용자 동의 없이 기록하지 않으면서도 지연 없이 통역을 처리하는 것이다. 이는 페이스타임 영상 통화에서도 자막으로 처리된다. 아직 애플 인텔리전스의 언어 모델이 완성 단계라고 보기는 어렵기 때문에 당장 번역의 품질에 대해서는 두고 볼 일이지만 이 커뮤니케이션 방법들은 기본적인 인공지능의 정책을 명확히 보여주는 사례다. 물론 애플 인텔리전스의 언어 능력은 시간을 통해서 개선될 일이다.
개인정보 중심에 둔 인공지능 정책
애플의 보안 잠금 로고. 사진=애플 |
다른 한 편으로는 '애플은 AI의 혁신을 기술적으로 뒤따르지 못하는 것 아닌가'하는 의문도 제기된다. 여전히 애플 인텔리전스는 오픈AI의 챗GPT나 구글의 제미나이와 비교하면 한참 부족해 보인다. 애플이 인공지능에 대응하지 못한다는 해석이 나올 수도 있다. 하지만 애플의 인공지능에 대한 정책은 오픈AI나 구글과는 전혀 다른 방법에서 접근한다. 말이 '인공지능'일 뿐 역할과 방향성이 전혀 다르다는 이야기다.
오랫동안 데이터를 바탕으로 막대한 양의 데이터를 학습하고, 대규모 데이터 센터에서 엄청난 양의 컴퓨팅 파워를 쏟아 세상의 모든 지식을 풀어내는 챗GPT와 대부분의 처리를 기기 내부에서 처리하도록 설계된 애플 인텔리전스는 그 규모부터 다르다. 기기에 깔리는 애플 인텔리전스의 모델의 파라미터는 현재 3억 개, 그러니까 300M 수준으로 알려졌다. 소형 모델인 LLaMA 2나 GPT-4o mini가 8빌리언 수준으로 꼽히고, GPT-4는 최소 500빌리언 이상의 초 거대 모델이다. 같은 목적을 두고 있다면 물리적으로 비교 자체가 불가능하다.
애플의 목표는 사생활 보호를 중심에 둔 인공지능의 해석이다. 애플은 지나치다 할 만큼 모든 정책에 사생활 보호를 강조해 왔다. 인공지능도 마찬가지다. 높은 가치를 만들어준다고 해도 사생활 침해의 여지가 있다면 애플은 기술을 내놓지 않는다.
동시에 애플은 오랫동안 인공지능의 중심을 '개인정보의 해석', 그리고 '개인의 맥락 이해'에 두었다. 습관을 기억하고, 어떤 행동을 할 지 미리 예측하는 것을 오랫동안 운영체제와 앱 환경에 녹여왔다. 애플 인텔리전스는 언어 모델을 기반으로 이 해석을 더 고도화하는 것이다.
지난해 발표된 첫 애플 인텔리전스의 역할도 이메일을 요약하고, 메시지 내용을 해석해주고, 캘린더의 일정을 현재 위치와 교통 정보에 연결해 가치를 만들어낸다. 이 모든 것은 기기 내에서만 처리된다. 애플의 이용자들도 어렴풋이 애플의 보안 정책을 이해하고 있다. 그렇기 때문에 그 해석에 대한 거부감이나 불안감을 갖지 않는다.
애플이 애플 인텔리전스로 보여주고 싶은 다음 단계가 바로 아직 시간이 더 필요하다고 말한 '맥락을 읽는 시리'다. 애플 인텔리전스 언어 모델의 역할은 세상의 지식을 이해하고, 병이 무엇인지 증상을 해석하고, 일상의 고민거리를 들어주는 것이 아니다. 이런 것들은 외부의 언어모델, 그러니까 챗GPT로 연결하고, 애플 인텔리전스는 내부의 데이터만을 더 파고든다. 메시지 속 약속에 대한 일정과 위치 정보를 읽고, 최근 오가는 이메일로 어떤 일에 우선해야 하는지 판단한다. 오늘 이동할 동선에 맞추어 일정 정보를 가다듬어주고, 불가능한 약속은 정리를 해 준다.
시리의 역할은 말을 잘 하는 것보다 개인정보에 기반한 이용자의 맥락을 이해하는 데에 놓여 있다. 이를 위해서는 더 철저한 개인정보 보호 정책을 세우고, 기기적으로, 또 서비스적으로 신뢰를 얻어야 한다. 애플은 신뢰를 바탕으로 iOS26을 비롯한 2026년 운영체제에 애플 인텔리전스를 확장하기로 했다. 개발 생태계에 애플 인텔리전스를 개방하는 것이다.
이제 앱 개발자들은 각자의 앱에 애플 인텔리전스를 이용할 수 있게 된다. 이를 통해서 기기 내부에서 필요한 언어 모델을 이용하기도 하고, 더 깊게는 개인정보에 기반한 인공지능 해석까지 해낼 수 있게 된다. 고가의 외부 언어 모델 대신 안전하고 적절한 수준의 인공지능 모델을 기기 내에서 처리할 수 있게 되면 소규모 앱 개발사도 더 적극적으로 인공지능 기술을 반영할 수 있게 된다.
또한 개인정보를 각자 자주 이용하는 앱들에 개방해서 맥락의 가치를 끌어올릴 수 있는 기회가 생긴다. 모든 정보들은 학습되거나 외부로 전송되지 않기 때문에 애플의 앱 생태계의 앱들이 더 안전하고 적극적으로 인공지능을 이용할 수 있다.
애플 인텔리전스에 답답함을 느낄 수도 있지만 스마트폰의 인공지능은 챗GPT와 다른 접근 방법이 필요한 것은 사실이다. 스마트폰은 우리의 모든 개인정보를 담고 있고, 결국 그 정보를 바탕으로 더 편리한 것들을 제공하는 방향으로 발전해야 한다. 하지만 그 안에서 사생활 보호와 인공지능이 서로 맞부딪치는 것은 곤란하다. 사실상 더 큰 언어 모델은 외부의 서비스를 연결하거나 극단적으로 인수 합병을 통해서도 채워 나갈 수 있다. 하지만 개인정보 제공에 대한 신뢰는 돈으로 살 수 없다. 애플은 개인정보 보호를 더 꽁꽁 싸맬수록 더 깊이 들어갈 수 있다는 인공지능의 새로운 접근법을 제시하고 있는 셈이다.
최근의 이슈는 단연코 인공지능이다. 오픈AI의 챗GPT 등장 이후 IT 업계의 기술 우선 순위는 인공지능이 차지했고, 이를 단순한 재미, 흥미 요소가 아니라 실제 완성 단계에 올려놓는 기업이 누가 될 것인지에 대한 눈치 싸움이 이어져 오고 있다. 특히 운영체제 플랫폼을 기반으로 주도권을 쥐고 있던 빅테크 기업들이 이를 어떻게 각자의 제품에 녹여내느냐는 곧 우리가 어느 정도 수준의 인공지능을 마주하게 될 지와 밀접하게 연결된다.
마이크로소프트 빌드, AI 중심 개발 생태계 전환의 선언
마이크로소프트는 인공지능에 대해 가장 적극적이고 공격적으로 접근하는 기업이다. 지난 몇 년 동안 마이크로소프트는 오픈AI를 미리 알아보고 막대한 투자를 한 만큼 인공지능 기술들을 서비스에 접목하고, 기업들이 이를 활용할 수 있는 방법에 대해 가장 앞서 나가고 있다는 평가를 받아 왔다.
마이크로소프트의 개발자 컨퍼런스 '빌드(Build) 2025'는 여전히 마이크로소프트의 중심은 인공지능에 있고, 그 범위가 단순히 오픈AI의 협업에 머무르지 않는다는 인상을 주기도 했다. 인공지능의 분야는 매우 넓고 마이크로소프트는 PC부터 기업용 데이터센터, 그리고 클라우드까지 모든 분야에 인공지능을 접목해 나가고 있고, 그 중심에 '코파일럿(Copilot)'을 둔다.
코파일럿은 이름처럼 각 분야의 어시스턴트로 성장해 나가고 있고, 올해 개발자 컨퍼런스를 통해 그 범위를 더 넓힐 뿐 아니라 전문화하고, 동시에 더 안전하게 접목할 수 있는 기술적 접근들을 보여주었다. 특히 소프트웨어 개발 환경에 인공지능이 접목되는 방법과 오픈소스를 통한 생태계 성장을 중심에 두고 새로운 시대의 개발 환경을 제시하고 있다. 당장 개발자들의 역할과 위치에 대한 고민들이 이어지는 가운데에 마이크로소프트가 제시하는 새로운 개발 환경은 중요한 이정표가 될 수 있다.
떠오르는 AI 중심의 개발 생태계
사티아 나델라 마이크로소프트 CEO. 사진=마이크로소프트 |
사티아 나델라 마이크로소프트 CEO는 '인공지능이 단순한 기술이 아니라 우리가 세상을 구성하는 방식 자체를 바꿀 것'이라는 메시지를 강조했다. 중요한 것은 기술 그 자체가 아니라 사람들이 이 기술로 무엇을 할 수 있느냐에 있다는 마이크로소프트의 기술적인 철학이 인공지능 시대에도 어김없이 작동하고 있다.
특히 생성형 AI가 코드를 능숙하게 다룰 수 있게 되면서 일하는 방법, 특히 개발 생태계의 변화를 읽는 것은 매우 중요하다. 'AI 퍼스트'를 떼어 놓고는 새로운 개발 환경에 적응할 수 없기 때문이다.
마이크로소프트는 직접 정보를 검색하고, 그 안에서 무엇을 만들어내는 것을 넘어 AI가 의도를 이해하고, 그에 따른 적절한 행동으로 이어지는 '에이전트 기반의 컴퓨팅'으로 진화하고 있다는 점을 강조했다. 이건 개발자가 편해진다는 수준이 아니라 비즈니스 전체의 방식, 과학적 발전의 속도 등 다른 차원으로 넘어가는 것이다. 그리고 단순한 도구가 아니라 우리와 함께 일하는 방식의 근본적인 접근이 필요하다는 것이 빌드의 주요 핵심 주제다.
그 시작은 개발 환경에 코파일럿을 더 깊이 반영하는 것이다. 마이크로소프트는 코파일럿을 마이크로소프트의 개발 도구인 '비주얼 스튜디오 코드'의 핵심 요소로 통합하고, 이를 오픈소스 생태계에 개방하겠다고 밝혔다. 이제 개발자들이 AI를 중심으로 한 소프트웨어 설계가 필수라는 메시지로 해석할 수 있다. 개발자들은 깃허브를 통해서 개발에 대한 아이디어를 나누고, 더 나은 방향을 고민하는데 여기에 코파일럿을 더해 단순한 버그 수정 정도가 아니라 더 복잡한 본질적 문제를 해결하고, 아키텍처 설계 등에 더욱 집중할 수 있도록 하는 변화로 이어질 수 있다.
기업 특성 이해하는 AI의 접근 방법
인공지능에 대한 현실적인 문제도 다뤄졌다. 많은 기업들이 인공지능을 비즈니스에 접목하고 싶어한다. 하지만 기대와 달리 현장에서는 여러가지 현실적인 문제들이 기다리고 있다. 데이터가 외부로 흘러나가고, 또 뜻하지 않게 학습되는 등의 보안 우려에 적극적인 활용이 어려워지기도 하고, 이런 이유들로 인해 데이터를 인공지능에 최적화하는 과정이 부담으로 작용하기도 한다.
마이크로소프트 AI 코파일럿. 사진=마이크로소프트 |
특히 기존 시스템이 탄탄하게 잡혀 있어서 변화가 쉽지 않은 대기업 환경에서는 더더욱 데이터 정책과 최적화에 어려움을 겪을 수밖에 없다. 마이크로소프트는 '코파일럿 튜닝(Copilot Tuning)'이라는 서비스를 내놓고 대기업 수준의 데이터 튜닝 워크플로우에 코파일럿을 대응하도록 했다. 코파일럿 튜닝을 이용하면 기존 업무 환경과 데이터 처리 정책을 거스르지 않으면서 기업 내의 모든 지식 정보와 전문성을 이해할 수 있게 된다. 실질적인 학습과 파인튜닝을 통합한 것이다. 간단한 참조 데이터 세트를 넣고 훈련하면 어렵지 않게 사내 에이전트에 지식이 통합되는 셈이다.
'모 라우터(Model Router)'도 주목해야 할 부분이다. 이미 셀 수 없이 많은 인공지능 모델이 개발되어 있고, 마이크로소프트 애저 AI 안에도 2천 가지에 가까운 모델이 운영되고 있다. 이 중에서 업무 특성에 맞고, 데이터의 형태에 최적화된 모델을 지속적으로 찾는 것은 상당히 곤욕스러운 일이다. 한 번 결정된 모델이라고 해도, 다른 더 나은 모델이 언제든 등장할 수 있기 때문에 개발 현장에서도 늘 긴장할 수밖에 없다.
모델 라우터는 스스로 적절한 모델을 선택해 주는 서비스다. 요구 사항을 가장 잘 해결할 수 있는 모델에 입체적으로 전달해 최적의 답을 찾아내는 것으로 보면 된다. 마이크로소프트는 이와 함꼐 XAI, 그록(Grog) 등의 모델을 애저에 통합해 모델 선택의 범위를 넓히기도 했다.
인공지능의 역할, 그리고 앞으로의 일하는 방법에 대한 고민
개발 환경에서 인공지능이 더 폭넓게 쓰이기 위해서는 무엇보다 신뢰가 중요하다. 사티아 나델라 CEO는 투명성, 안전성, 책임성이라는 세 가지 키워드를 통해 인공지능이 업무 환경에 접목되는 원칙을 설명했다. 신뢰가 바탕이 되어야 인공지능이 더 깊은 곳까지 다가갈 수 있고, 이를 안정적으로 관리할 수 있는 방법이 필요하다고 설명했다. 마이크로소프트는 '애저 AI 안전 시스템'을 소개하기도 했는데, 기본적으로는 개발자가 개방성을 바탕으로 AI 정책의 기본 원칙을 준수할 수 있도록 돕는 통제 시스템이 필요하다는 이야기다.
인공지능은 이제 우리의 거의 모든 문제 해결 과정에 동참하게 된다. 과학 문제 해결은 가장 큰 기대를 사는 부분이다. 최근 반도체의 발열 때문에 업계가 고민하는 액침 냉각은 아직 안정성에 대한 확신이 필요한 단계다. 컴퓨터 부품을 그대로 액체에 넣는 것이기 때문이다. 마이크로소프트는 그 내용을 밝히지는 않았지만 이를 완전히 인공지능에 맡겼고, 추천하는 소재들을 섞어 PC를 담그고 게임을 시연하기도 했다. 오랜 시간 연구와 실험을 반복하지 않아도 정답에 가까운 길을 빠르게 찾아준다. 전문가들은 그 정보들을 검증하고, 새로운 아이디어를 더해 빠르게 결과를 완성해 나가게 된다. 이런 마이크로소프트의 이야기는 인공지능이 결국 우리 모든 분야에서 일하는 방법을 바꾸게 될 것이라는 답으로 이어진다.
개발자의 역할도 일일이 코드를 입력하고, 버그를 수정하는 등 단순한 기능 개발이 아니라 AI를 이용하고, 스스로 필요한 AI를 만들고 제어해 업무로 연결하는 과정이 필요하다. 마이크로소프트는 이를 위해서 '배우는 것'보다 '기술을 주도할 수 있는 능력'이 필요하다고 강조한다. 반복적이고 예측 가능한 일에서 해방 가능. 창의적이고 복잡한 문제, 아키텍처 설계 등에 집중할 수 있게 되는 것이다.
2025년 마이크로소프트 빌드는 결국 개발자의 역할을 새로 정의하고, 그 영향이 모든 업계로, 모든 업무로 확장될 수 있다는 이야기로 마무리된다. 인공지능은 더 이상 특정 기업의, 특정 분야의, 또 특정 사람만을 위한 기술이 아니다. 이제는 모든 산업, 모든 직무, 모든 업무가 AI로 인해 바뀔 수 있다. 마이크로소프트는 개발자들의 변화를 언급했지만 그 다음은 순서도, 예외도 없을 것이라는 메시지를 꾸준히 언급하고 있다.
<저작권자 Copyright ⓒ 디지털포스트(PC사랑) 무단전재 및 재배포 금지>
