컨텐츠 바로가기

10.06 (일)

애플 AI 전략은 '온디바이스화'

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[박찬 기자]
AI타임스

WWDC 2023에서 팀 쿡 애플 CEO가 ‘비전 프로’를 소개하고 있다. (사진=애플)

<이미지를 클릭하시면 크게 보실 수 있습니다>


애플이 마이크로소프트(MS)나 구글과 같이 대형 언어 모델(LLM)을 클라우드로 연결하는 인공지능(AI) 서비스 대신 제품에서 별도로 구동하는 온디바이스 모델을 채택했다고 밝혀 주목된다.

애플은 5일(현지시간) 세계 개발자 컨퍼런스 2023(WWDC 2023) 기조연설에서 첫 혼합현실(MR) 헤드셋 '비전 프로(Vision Pro)'와 최신 칩 'M2 울트라(M2 Ultra)'와 같은 신제품을 소개하면서 한편으로는 제품에 녹아든 AI 기술을 10여가지 이상 소개했다.

이날 발표의 하이라이트는 비전 프로였지만, AI 역시 다른 이름으로 발표의 상당 부분을 차지했다. 애플은 'AI'라는 단어는 단 한 차례도 언급하지 않고 대신 다소 학문적인 '트랜스포머(transformer'나 '머신러닝(ML)'이라는 용어를 사용했다.

특히 애플은 특정 AI 모델이나 학습 데이터 또는 향후 개선 방법에 대해 이야기하는 대신 단순히 제품에 포함된 AI 기능에 대해서만 언급했다.

팀 쿡 애플 CEO는 "우리는 AI 기능을 제품에 통합하지만, 사람들은 그것을 AI라고 생각하지 않는다"고 지적했다.

애플은 구글이나 MS, 오픈AI와는 다른 AI 접근 방식을 가지고 있다. AI 기술을 전면에 내세우지 않고 제품 전반에 AI를 스며들게 한다는 전략이다.

이는 하드웨어, 특히 아이폰과 그 생태계에 기반한 회사라는 점 때문이다. 구글과 같이 검색을 재편하거나 MS와 같은 생산성 소프트웨어를 개선하는 것보다, iOS를 기반으로 하는 기기 판매를 우선시하고 있다는 분석이다.

오픈AI의 챗GPT가 출시 두 달 만에 1억명 이상의 사용자를 기록했을지 모르지만, 애플은 10억명의 아이폰 소유자가 매일 사용하는 AI 기능을 제공하고 있다는 논리다.

따라서 이번 행사에서도 슈퍼컴퓨터와 대규모 데이터로 큰 모델을 구축하는 클라우드 기반 AI보다 애플 기기에서 직접 구동하는 온디바이스 AI(On-device AI)를 집중적으로 선보였다.

AI타임스

iOS 17 스크린샷 (사진=애플)

<이미지를 클릭하시면 크게 보실 수 있습니다>


이를 기반으로 애플은 iOS 17에서 더 나은 자동 수정 받아쓰기 및 라이브 음성 메일(Live Voicemail) 기능 에어팟용 맞춤형 볼륨(Personalized Volume) 기능 워치OS(watchOS)의 개선된 스마트 스택(Smart Stack) 라이브 사진에 애니메이션을 적용하는 새로운 아이패드 잠금 화면 새로운 저널(Journal) 앱의 프롬프트 제안 기능 비전 프로의 화상 통화를 위한 3D 아바타 생성 기능 등 온디바이스 ML 기반의 새로운 AI 기능을 대거 공개했다.

이와 같은 AI 기능들은 아이폰과 같은 애플 기기에서는 직접 실행할 수 있지만, 챗GPT와 같은 모델에는 수백개의 고가 GPU가 함께 작동해야 한다. 모델을 휴대폰에서 실행할 수 있게 되면 애플은 실행을 위해 더 적은 데이터만 필요할 뿐 아니라 데이터 프라이버시 문제도 회피할 수 있다.

또 애플은 매년 새로운 AI 회로와 GPU를 자사 칩에 탑재하고 있으며, 전체 아키텍처를 제어함으로써 변화와 새로운 기술에 쉽게 적응할 수 있다고 강조했다. 특히 ML 애플리케이션을 가속화하도록 설계한 뉴럴 엔진이라는 애플 실리콘 칩 덕분에 이 모든 온디바이스 AI 처리는 애플에게 매우 쉬운 일이라는 분석이다.

iOS 17에 새로 선보인 자동 수정 기능은 단어 예측을 위한 트랜스포머 모델을 활용해 스페이스 바를 누를 때 단어 또는 전체 문장을 완료할 수 있는 자동 수정을 제공한다. 트랜스포머 모델은 장치에서 온디바이스로 실행하며 작성하는 동안 사용자의 개인 정보를 보호한다.

받아쓰기 기능을 사용하면 사용자가 아이폰 키보드에 있는 작은 마이크 아이콘을 탭하고 말을 시작해 텍스트로 바꿀 수 있다. iOS17에서 받아쓰기 기능은 뉴럴 엔진을 활용해 트랜스포머 기반 음성 인식 모델을 제공한다.

아이폰의 기본 전화 앱을 위한 라이브 음성 메일 기능은 누군가가 아이폰 수신자에게 전화를 걸고 연락이 닿지 않아 음성 메일을 남기기 시작하면 발신자의 말을 실시간으로 수신자의 화면에 텍스트로 전사해 전화를 받아야 하는지를 판단할 수 있다. 이 기능은 뉴럴 엔진에 의해 구동되며 전적으로 장치에서 발생하며, 이 정보는 애플과 공유되지 않는다.

애플은 또한 일종의 대화형 일기와 같은 개인 텍스트 및 이미지 저널링을 허용하고 아이폰에서 잠그고 암호화할 수 있는 저널이라는 새로운 앱을 선보였다. iOS 17의 새로운 저널 앱은 사용자의 휴대폰에서 최근 사진, 운동 및 기타 활동을 자동으로 가져와 사용자는 콘텐츠를 편집하고 텍스트와 새로운 멀티미디어를 원하는 대로 추가해 디지털 저널을 작성할 수 있다.

이 밖에도 라이브 포토 기능은 고급 ML 모델을 사용해 추가 프레임을 생성하거나 PDF의 필드를 식별해 연락처에 있는 이름, 주소, 이메일과 같은 정보로 채울 수 있다. 에어팟용 맞춤형 볼륨 기능을 사용하면 ML을 사용해 시간이 지남에 따라 환경 조건과 청취 선호도를 이해하고 사용자가 원하는 대로 에어팟의 볼륨을 자동으로 조정할 수 있다. 스마트 스택이라는 애플 워치 위젯 기능은 ML을 사용하여 필요할 때 관련 정보를 표시한다.

또 애플은 헤드셋 비전 프로에서 고글 전면에 있는 사용자 눈의 움직이는 이미지가 얼굴을 스캔해 생성한 특수 3D 아바타의 일부라고 밝혔다. 비전 프로의 전면 센서를 사용한 빠른 등록 프로세스 후 시스템은 고급 인코더-디코더 신경망을 사용하여 3D '디지털 페르소나'를 온디바이스에서 생성한다.

마지막으로 애플은 최대 24개의 CPU 코어, 76개의 GPU 코어 및 초당 31조6000억회의 연산을 수행하는 것으로 알려진 32코어 뉴럴 엔진 기반 애플 실리콘 칩인 'M2 울트라'를 공개했다. 이는 전작인 M1 울트라보다 40% 더 빠르다.

그리고 M2 울트라는 M1 울트라보다 50% 더 많은 192GB의 통합 메모리를 지원한다. 이를 통해 단일 시스템에서 가장 강력한 개별 GPU가 메모리 부족으로 처리할 수 없는 대형 트랜스포머 모델과 같은 대규모 ML 워크로드를 훈련할 수 있다.

여기서 큰 용량의 RAM은 더 크고 더 유능한 AI 모델이 메모리에 들어갈 수 있음을 의미한다. 새로운 '맥스튜디오(Mac Studio)'와 '맥 프로'를 AI 학습을 위한 데스크탑 및 타워 크기 기계의 폼 팩터로 활용할 수 있게 된 것이다.

이는 대형 언어 모델 경량화 사업에 앞다퉈 뛰어든 구글이나 메타, MS, IBM 등 빅 테크들에 시사하는 바가 크다. 특히 메타는 오픈소스 경량화 콘셉트로 틈새시장을 확장하는 모양새다.

이들이 애플처럼 모두 경량화된 모델을 모바일에 적용하는 데 성공할 경우, 생성 AI 산업과 모바일 이동통신 산업도 급변할 가능성이 있다는 분석이다.

더불어 일각에서는 애플이 생성 AI를 적용할지에도 주목하고 있다. iOS라는 막강한 모바일 OS가 산업 재편의 키가 될 수 있을 것이라는 예상이다.

한편 팀 쿡 애플 CEO는 이날 ABC 뉴스와 인터뷰를 통해 "개인적으로도 챗GPT를 사용하고 있으며, 독특한 애플리케이션에 대해 기대하고 있고, 애플은 이를 면밀히 살펴보고 있다"며 챗GPT 같은 AI 챗봇에 대한 관심을 표명했다.

박찬 기자 cpark@aitimes.com

<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.