컨텐츠로 건너뛰기
검색
뉴스1 언론사 이미지

"갈릭갈아 제미나이3 반격"…오픈AI '차세대 고효율GPT' 승부수

뉴스1 김민석 기자
원문보기

"갈릭갈아 제미나이3 반격"…오픈AI '차세대 고효율GPT' 승부수

서울흐림 / 3.6 °

'개선된 사전훈련' 성능 높여…내년초 '차세대 버전' 출시 유력

'스케일링 법칙' 논쟁 속 작고 강한 모델 방향…넵튠AI 인수



샘 올트먼 오픈AI CEO FILE PHOTO: Event to pitch AI for businesses in Tokyo ⓒ 로이터=뉴스1

샘 올트먼 오픈AI CEO FILE PHOTO: Event to pitch AI for businesses in Tokyo ⓒ 로이터=뉴스1


(서울=뉴스1) 김민석 기자 = 오픈AI가 구글의 '제미나이3'에 빼앗긴 인공지능(AI) 기술 주도권을 되찾기 위해 '마늘'(Garlic)이라는 코드명의 차세대 대형언어모델(LLM) 출시 준비에 박차를 가하고 있다.

갈릭은 올해 10월 샘 올트먼 CEO가 직원들에게 언급한 또 다른 내부 모델 '샬롯피트'(Shallotpeat)와는 별개 프로젝트다.

샬롯피트가 사전훈련 결함 수정에 초점을 맞췄다면 갈릭은 이를 보완해 한층 진화한 모델로 알려졌다.

6일 IT 업계와 외신에 따르면 마크 첸 오픈AI 최고연구책임자(CRO)는 최근 내부 브리핑에서 갈릭 모델이 구글 제미나이3와 앤트로픽 '클로드 오퍼스 4.5를 코딩·추론 능력에서 앞섰다고 강조했다.

오픈AI 챗GPT 로고. FILES-GERMANY-COURT-AI-US-MUSIC-TECHNOLOGY ⓒ AFP=뉴스1

오픈AI 챗GPT 로고. FILES-GERMANY-COURT-AI-US-MUSIC-TECHNOLOGY ⓒ AFP=뉴스1


갈릭 모델은 올트먼 CEO가 이달 1일(현지시간) '코드 레드'를 발동으로 출시 시점을 앞당긴 것으로 전해졌다.

올트먼은 내부 메모에서 "챗GPT가 매우 중요한 시점에 와 있다. 챗GPT 개선에 총력을 다해야 한다"고 말했다. 그는 챗GPT의 △성능 △개인 맞춤화 △안정성 △처리 범위 등을 전반적으로 끌어올려야 한다고 강조한 것으로 알려졌다.


업계는 오픈AI가 갈릭 모델을 내년 초 GPT-5.2 또는 GPT-5.5로 출시할 것으로 본다.

갈릭의 핵심 경쟁력은 개선된 사전 훈련(Pre-training)으로 전해졌다. 현재 추가 학습과 안전성 평가에 들어갔다.

첸 CRO는 동료 브리핑에서 갈릭은 이전 모델인 GPT-4.5를 괴롭히던 프리트레이닝 핵심 문제를 해결했다. 더 작은 모델에도 대형 모델 수준의 지식을 탑재할 수 있게 됐다고 말한 것으로 알려졌다.


구글 제미나이 로고 FILE PHOTO: Illustration shows Gemini logo ⓒ 로이터=뉴스1

구글 제미나이 로고 FILE PHOTO: Illustration shows Gemini logo ⓒ 로이터=뉴스1


첸 CRO의 발언은 제미나이 3의 성능 향상의 핵심으로 꼽힌 '향상된 사전 훈련'과 궤를 같이 하는 것으로 풀이된다. 제미나이 3는 제미나이 2.5 버전과 동일한 1조 파라미터 규모 LLM으로 역대 최대 폭의 성능 도약을 달성했다.

AI 업계에서는 그간 사전 훈련의 효용이 한계에 달했다는 '스케일링 법칙의 벽' 논쟁이 있었다.

오픈AI의 내부 벤치마크 성과가 실제 사용 환경에서도 구현될진 미지수다.


올트먼 CEO가 GPT-5 출시할 당시 △언어 이해력 △추론 능력 △콘텐츠 생성 정확도 등 전반에 혁신적 개선을 달성한 모델이라고 강조했지만, 실제론 기대에 미치지 못했다는 평가를 받은 전례가 있다.

한편 오픈AI는 챗GPT 개선을 위해 최근 AI 모델 훈련 과정 모니터링 기술 스타트업 넵튠AI를 인수한다고 발표했다. 넵튠AI는 대규모 모델 학습 과정에서 발생하는 버그 및 성능 저하 현상을 모니터링하고 수정할 수 있는 도구를 개발하는 기업이다.

ideaed@news1.kr

Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지. <용어설명> ■ 스케일링 법칙 스케일링 법칙(Scaling law)은 인공지능(AI) 훈련 과정에서 데이터·모델 크기(파라미터 수)·컴퓨팅 자원을 늘릴수록 성능이 향상된다는 경험적 원칙이다. ■ 파라미터 파라미터(Parameter)는 LLM 내부에서 학습을 통해 값이 조정되는 숫자들(가중치·편향)을 통틀어 부르는 개념이다. 모델이 언어 패턴을 얼마나 잘 포착할 수 있는지 결정하는 핵심 요소다. 인공신경망에서 각 뉴런 사이 연결의 가중치(weight)와 각 뉴런의 편향(bias)을 합쳐 파라미터라고 부른다.​