━
무슨 일이야
18일(현지시간) 오픈AI는 지난 5월 출시한 GPT-4o(포오)보다 가벼운 소형 모델인 ‘GPT-4o 미니’를 출시할 예정이라고 발표했다. 가장 큰 장점은 저렴한 비용이다. GPT-4o 미니의 이용 비용은 입력 토큰(AI가 텍스트를 한 번에 처리할 수 있는 기본 단위) 100만 개당 15센트, 출력 토큰 100만 개당 60센트로, 이전에 출시된 ’GPT-3.5 터보’보다 60% 이상 저렴하다. 그러면서도 추론 작업, 수학과 코딩 능력을 측정하는 테스트(MMLU)에서 구글의 ‘제미나이 플래시’, 앤스로픽의 ‘클로드 하이쿠’ 등 경쟁사 모델보다 정답률이 높았다는 게 오픈AI의 설명이다. 오픈AI는 “GPT-4o 미니는 우리의 가장 비용 효율적인 소형 모델”이라고 밝혔다.
샘 올트먼 오픈AI 최고경영자(CEO). 로이터=연합뉴스 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
━
이게 왜 중요해
오픈AI뿐만 아니라 다른 빅테크들도 앞다퉈 소형언어모델(SLM)을 내놓고 있다. 메타는 지난 4월 ‘라마 3’를 매개변수 700억 개 이상인 대형 모델과 80억 개인 소형 모델 두 가지 버전으로 선보였다. 마이크로소프트(MS)는 소형 생성AI ‘파이-3 미니’를 공개했다. 5월에는 구글도 ‘제미나이 1.5 프로’를 발표하면서 경량화 모델인 ‘제미나이 1.5 플래시’를 함께 발표했다.
순다르 피차이 구글 최고경영자(CEO)가 지난 5월 '구글 연례 개발자 회의(I/O)'에서 발표를 하고 있다. 이 행사에서 구글은 제미나이 1.5 시리즈를 선보였다. 연합뉴스 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
소형 AI모델이 각광받는 건 대형 AI모델 운영에 과도하게 많은 비용이 들어가기 때문이다. 최근 월스트리트저널(WSJ)은 클라라 쉬 세일즈포스의 AI 담당 최고경영자(CEO)의 말을 인용해 “(거대 AI모델을 사용하면) 결국 과다한 비용을 치르게 되고 시간도 지연된다. 오히려 과잉”이라고 보도했다. WSJ은 “문서를 요약하거나 이미지를 생성하는 것처럼 많은 일에서 거대 모델은 장을 보기 위해 탱크를 모는 것과 같다”고 평가했다. 불필요한 비용을 지불하면서까지 거대 AI모델을 사용할 필요가 없다는 의미다. 또 경량화 AI모델은 온디바이스(네트워크 연결없이 기기 내에서 AI 구동) 기술에도 적합하다. 온디바이스 스마트폰·PC 등 기기가 늘어나면서 소형 AI모델의 필요성은 더욱 높아지고 있다.
━
더 알면 좋은 것
AI모델 경쟁이 심화되면서 빅테크들의 자체 AI 반도체 개발에도 속도가 붙고 있다. 정보통신(IT) 전문 매체 디인포메이션은 지난 18일(현지시간) 오픈AI가 자체 AI반도체 개발을 위해 미국 팹리스(반도체 설계 전문) 기업 브로드컴과 논의 중이라고 보도했다. 이를 위해 구글의 반도체 개발 부서에서 엔지니어들을 영입했다고도 전했다. 브로드컴이 중국 틱톡 운영사 바이트댄스와 고성능 AI 반도체 개발을 위해 협력한다는 계획도 지난달 공개됐다.
김민정 기자 kim.minjeong6@joongang.co.kr
▶ 중앙일보 / '페이스북' 친구추가
▶ 넌 뉴스를 찾아봐? 난 뉴스가 찾아와!
ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.